OpenAI 的新推理 AI 模型产生更多幻觉
快速阅读: 据《雅虎美国》称,斯坦福大学教授称,o3模型在编码测试中表现优于对手,但存在生成无效链接的幻觉问题。OpenAI正研究减少幻觉的方法以提高准确性。过去一年,AI行业转向推理模型研发,但也加剧了幻觉现象。
斯坦福大学客座教授、职业发展初创公司Workera的首席执行官基安·卡坦弗鲁什向TechCrunch透露,他的团队已在编码工作流程中测试了o3模型,发现其性能优于竞争对手。不过,卡坦弗鲁什指出,o3模型有时会产生无效链接的幻觉。例如,该模型可能会提供无法使用的链接。这种幻觉虽能激发模型的创造性思维,却也使一些模型在需要极高精确度的市场中难以被企业采用。例如,一家律师事务所可能不会接受在客户合同中充斥大量错误信息的人工智能系统。提升模型准确性的潜在方法之一是为其配备网络搜索功能。OpenAI的GPT-4o通过网络搜索在SimpleQA测试中达到了90%的准确率。从理论上讲,这种搜索功能或许也能改善推理模型的幻觉问题——当然,前提是用户同意将提示传递给第三方搜索引擎进行处理。假如推理模型的幻觉问题持续恶化,解决这一难题的需求将会更加迫切。“解决所有模型中的幻觉问题是我们持续研究的一个方向,我们正不断努力提高模型的准确性和可靠性。”OpenAI发言人尼科·费利克斯在一封电子邮件中对TechCrunch表示。
过去一年里,随着传统人工智能模型改进技术的回报逐渐减少,整个AI行业已转向专注于推理模型的研发。推理模型不仅能提升模型在多种任务中的表现,还减少了在训练过程中对巨大计算能力和海量数据的依赖。然而,推理模型似乎也在加剧幻觉现象,这对行业构成了挑战。
本文最初发布于TechCrunch,网址为:https://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/
(以上内容均由Ai生成)