为什么AI爱“胡说八道”?OpenAI告诉你真相

为什么AI爱“胡说八道”?OpenAI告诉你真相

为什么AI爱“胡说八道”?OpenAI告诉你真相

我们越来越依赖语言模型与 AI 系统来辅助获取信息、创作内容和支持决策。但你是否注意到,它们有时会一本正经地“说胡话”?比如编出一本从未出版的书、引用一个不存在的研究,甚至猜测你宠物的生日。这些现象被称为“幻觉”(hallucination)。

OpenAI 最近发布的一项研究《Why Language Models Hallucinate》,深入分析了语言模型出现幻觉的根源,并提出了优化建议。研究指出,这些看似“出错”的内容,其实是模型在现有训练逻辑下被“激励”出来的结果。

一、语言模型为啥“胡说八道”?

大语言模型的训练方式本质上是一种“猜词游戏”。它们通过学习海量语料库,学会预测下一个最有可能出现的词。例如:

“乔布斯是苹果公司的…” → 最可能的接续词包括“创始人”、“CEO”或“联合创始人”。

问题在于,这种训练机制强调的是语言连贯性,而不是事实准确性。当模型遇到极少见或缺乏明确背景支持的问题时,比如某个冷门导演的作品年表,或一只宠物的生日,它只能“凭经验”生成一个听起来“像真的”答案,这就构成了幻觉。

二、奖励猜测,惩罚诚实?模型行为的评估陷阱

更深层的问题在于模型的评估体系。当前主流的评估方式多采用准确率标准:答对得分,答错扣分,未答为零。

在这种机制下,模型被鼓励去“尽量作答”以博取得分,而不是选择“我不知道”。OpenAI 指出,这种激励机制本质上是在奖励模型“看起来像知道”,哪怕它根本不确定。这也就导致模型更倾向于“编一个”,而不是“诚实沉默”。

三、幻觉不是必然,模型可以学会说“不知道”

OpenAI 的研究发现,如果调整训练方式,并对“拒答”或“不确定”给予正向激励,模型是可以在面对不熟悉问题时选择不作答或表达模糊判断的。

换句话说,幻觉并不是语言模型无法避免的缺陷,而是由我们如何训练与评估它造成的结果。模型的“胡说八道”,有时恰恰是人类在背后设置的机制所驱动的。

四、幻觉,其实也是一种“智能探索”

从另一角度看,幻觉也不全是坏事。

人类在探索未知世界时,也常常从假设和猜测出发。牛顿、达尔文、爱因斯坦都曾提出基于部分信息的假设,最终推动了科学进步。

同理,AI 在信息缺失时做出语言上的合理猜测,也是一种“智能探索”。只不过,问题在于它没有告诉我们:这只是个猜测而已。

五、与其消灭幻觉,不如转化为“共创机会”

真正理想的 AI,不是始终给出正确答案的“答题机器”,而是可以与人类一起探索、思考的“对话伙伴”。

如果模型能在不确定时这样回应:

“这只是我的推测,建议进一步验证。”

它就从一个“自信的误导者”,转变为一个“坦诚的协作者”。未来最有价值的 AI,不是零幻觉的机器,而是可以引导人类共创真知的平台。

结语:幻觉,是AI走向成熟的必经之路?

OpenAI 的研究揭示了一个重要事实:幻觉并非 AI 的致命缺陷,而是当前训练目标与激励机制的自然产物。

与其一味杜绝幻觉,不如识别它、控制它,并从中激发人机共创的可能。

毕竟,猜测是人类走向真理的起点,也可能成为 AI 智能进化的下一站。

写文章不容易,如果您觉得这篇文章有帮助,欢迎关注作者、转发、收藏,就是对作者的最大帮助。

Share this content:

微信二维码

发表评论