” 活跃 ” 在各大社交平台的康熙帝,一不小心又上了热搜。
起因是,有网友将康熙皇帝究竟有几个儿子的问题,投喂给了不同的 AI 工具。结果?好嘛,答案完全不同。不仅不同的大模型回答不一样,即便是同一个大模型,答案也有偏差。
有网友问,这么一个简单问题,AI 就给不出标准答案?
我们想问,为什么一定要从 AI 处寻标准答案?为什么一定认为,AI 就非得给你标准答案?以及,什么才是标准答案?
罗素说,参差多态乃是幸福的本源。人类对于整个世界的追寻,本就是 ” 上下而求索的过程 “。求真求实求规律,一些曾经的 ” 标准答案 “,早已被证伪。
所以,为何苛责于 AI 给不出标准答案?
相对于追问 AI 给不出标准答案,防止掉入“AI幻觉” 更为重要。在人工智能领域中,即便大模型已经历海量的数据训练,并拥有出色的信息处理能力,但它们偶尔仍会生成一些与客观事实相悖或逻辑上难以自洽的内容。这正是 “AI 幻觉 “。
防止掉入“AI幻觉“之前,摆脱对技术的绝对依赖更为重要。科技的发展,是让人类享受便捷,而不是变得懒惰。是人更有便捷思维,而不是盲信盲从。
对大模型产生过分依赖,甚至已经开始 ” 造神 ” 的使用者,忽略了一个最根本的事情。人工智能大模型的本质和词典、搜索引擎一样都是工具,人本身才是决策者。
你可以相信人工智能大模型关于康熙有 24 个儿子的答案,但也应该为自己没有进一步求证而造成的失误负责。
对于人工智能大模型提供商而言,确实有精进的业务。比如,针对特定领域,如历史人物和事件,构建专门的知识图谱和数据库显得尤为重要。当大模型遇到这些领域的问题时,能够直接从知识图谱中迅速检索到准确信息,从而大幅提升回答的准确性和效率。
但人工智能大模型从来不是责任主体,使用者无权把自己懒怠的恶果嫁接到一个不能代替自己决策的工具上。
人需要为自己的认知和辨别能力负责。
也就是,享受科技的便捷,但别丢了脑子。
撰文 | 范盛杰 实习生李涵芝
主编 | 李锦
审核 | 朱宗威
出品 | 潇湘晨报