OpenAI揭示大模型幻觉根源,提出改进评估方法
快速阅读: OpenAI研究发现,大型语言模型出现幻觉现象,因其训练方法倾向于奖励猜测。OpenAI建议重新设计评估指标,避免在不确定时惩罚模型,以减少幻觉问题。
研究人员称,OpenAI 已经攻克了大型语言模型性能的一大障碍——幻觉问题。当大型语言模型生成并呈现不准确的信息时,就会发生幻觉现象。这种问题困扰着最流行的大型语言模型,从 OpenAI 的 GPT-5 到 Anthropic 的 Claude。
OpenAI 在周四发布的一篇论文中表示,其基础发现是,大型语言模型之所以会出现幻觉,是因为训练方法更倾向于奖励猜测而非承认不确定性。换句话说,这些模型被鼓励“假装直到成功”。然而,不同模型的表现有所差异。上个月,OpenAI 在一篇博客文章中提到,Claude 模型更加意识到自身的不确定性,并经常避免做出不准确的陈述。但同时也指出,Claude 的高拒绝率可能会影响其实用性。
“幻觉持续存在的原因在于大多数评估的方式——语言模型被优化为优秀的考试者,不确定时猜测可以提高考试成绩。”研究人员在论文中写道。大型语言模型几乎总是处于“考试模式”,回答问题时仿佛生活中的每件事都是非黑即白的。然而,在许多方面,它们并不适应现实生活中普遍存在的不确定性,真正的准确性并不是理所当然的。
“人类在校外通过实际经历学会表达不确定性,而语言模型主要通过考试来评估,不确定时会被扣分。”研究人员写道。好消息是,解决办法在于重新设计评估指标。“根本问题是评估指标的不一致,需要调整众多主要评估指标,以停止在不确定时惩罚放弃回答。”他们补充道。
在关于该论文的博客文章中,OpenAI 进一步阐述了这种调整的具体内容。“广泛使用的基于准确性的评估需要更新,以便评分时不再鼓励猜测。如果主要排行榜继续奖励幸运的猜测,模型将继续学习如何猜测。”OpenAI 表示。OpenAI 尚未回应《商业内幕》的置评请求。
(以上内容均由Ai生成)