AI为何常编造不实信息?训练方式成关键

发布时间:2025年11月2日    来源:szf
AI为何常编造不实信息?训练方式成关键

快速阅读: 研究人员指出,AI模型如ChatGPT可能因训练方式产生“幻觉”,即编造不真实信息。模型通过概率计算生成答案,缺乏真实数据时易出错。OpenAI建议模型表达不确定性以减少幻觉,但实施难度大。

为什么人工智能会编造不真实的信息?

这归根结底于这些系统的训练方式,研究人员表示。

尽管ChatGPT是最知名且广泛使用的大型语言模型之一,但它仍可能提供含有错误的答案。

(图片:Matt Rourke,AP,NTB)

记者:拉斯·比尔纳斯塔德

发布时间:2025年11月2日 – 00:01

你可能亲身经历过这种情况。有时,大型AI模型给出的答案看似正确。

它表现得非常自信,但实际上可能是完全虚构的。

这是语言模型的一个基本问题,即使是最先进的模型也未能解决这一“幻觉”现象,这是OpenAI公司——最著名的语言模型ChatGPT背后的公司——几位研究人员撰写的文章中提到的。

文章发表在预印本档案Arxiv上,但尚未经过同行评审。

尽管如此,这篇文章已经引发了关于如何处理语言模型不确定性问题的讨论,奥斯陆大学信息学系教授埃里克·维尔达尔告诉《科学挪威》。

另一位研究者认为,OpenAI提出的解决方案可能会彻底破坏人们与这些AI模型的关系,这一点将在后文中详细讨论。

但首先,这些“幻觉”是如何产生的?当模型没有一个好的答案时,它们应该怎么做?

奥斯陆大学信息学系教授埃里克·维尔达尔

(图片:奥斯陆大学)

“事情可能会出错”

维尔达尔告诉《科学挪威》,幻觉是语言模型工作原理的一部分。

“这些模型是对词序列的概率分布,而不是关于世界的事实数据库,”他说。

换句话说,像ChatGPT这样的模型产生的句子是概率计算的结果。每个词的选择都是基于其前面词最可能出现的情况。

因此,有时事情可能会偏离轨道。

“特别是在训练数据中代表性不足的主题上,事情更容易出错,”维尔达尔说。

这时,模型可能会开始产生听起来合理但实际上并不真实的答案。例如,虚构的研究。

“它可以编造一些听起来可能的事情,甚至杜撰标题和参考文献,看起来很真实。也许它还会使用真实研究者的姓名作为作者,”他说。

文章的作者指出,在训练过程中,模型因猜测而得到奖励,而不是因为表达不确定性。

多项选择

当AI模型接受训练时,会使用不同类型的测试来评估其性能。这些测试也可以是多项选择形式,其中模型有明确的答案选项可供选择。

这可以与人类参加此类测试相比较,研究人员在文章中写道。猜测总比什么都不做要好,因为至少有机会答对。

“问题是,模型不会因为承认不知道某件事而获得奖励,所以它只会猜测,”维尔达尔说。

研究人员建议引入“我不知道”选项。

这样做可以让模型学会表达不确定性,而不是编造答案。维尔达尔认为,如果这种做法成为模型训练评估的一部分,可能会减少幻觉的发生。

然而,他补充说,这种方法可能不适用于较长的开放式任务,比如撰写论文或总结研究。

“当人们要求模型总结知识或撰写某个主题时,很难看到该提议如何起作用,”维尔达尔说。

仍然存在的问题

幻觉仍然是一个持续的挑战。

最近的一个例子来自挪威广播公司NRK,该公司让语言模型回答公共广播网站上的新闻相关问题。

45%的回答包含重大错误,包括编造的新闻文章和虚假链接,据NRK报道(链接为挪威语)。

即便如此,维尔达尔表示,过去一年情况有所改善。

“主要是因为语言模型越来越多地与互联网搜索和外部工具结合使用。这有助于将答案建立在真实信息的基础上,”他说。

但模型是否应该更好地传达不确定性?

“用户可能会放弃这样的系统”

OpenAI提出的一个解决方案是让语言模型在给出答案之前评估自己对该答案的信心程度,研究员韦兴在《对话》杂志中写道。

根据文章中的数据,他认为这种方法可能导致大型语言模型大约三分之一的时间以“我不知道”开始回应。

他认为:“习惯于几乎任何问题都能得到自信回答的用户可能会迅速放弃这样的系统。”

维尔达尔并不完全同意这一观点。

“当然,人们希望获得明确的答案,但如果答案是错误的,他们也不会接受。我宁愿模型承认它不知道,但也不应过于谨慎。”他说道。

维尔达尔指出,如果模型因为害怕出错而频繁回应‘我帮不了你’,那它也不会很有用。

(以上内容均由Ai生成)

你可能还想读

AI助力航运业转型,而非取代船员角色

AI助力航运业转型,而非取代船员角色

快速阅读: 全球网络攻击频发,国际航运商会调查指出网络攻击成航运业四大风险之一,引发对AI影响海员职业的担忧。但实际上,AI将通过自动化日常任务提升海员工作效率,而非取代岗位。 近期,全球各行业遭遇的网络攻击数量急剧增加。国际航运商会的最新 […]

发布时间:2025年11月3日
Getty Images与Perplexity合作,AI助力重塑竞争优势

Getty Images与Perplexity合作,AI助力重塑竞争优势

快速阅读: Perplexity与Getty Images达成全球许可协议,整合后者图片至AI搜索工具,提升用户体验,强调版权重要性。此合作可能重塑Getty投资前景,但AI法律风险犹存。 2025年10月31日,Perplexity宣布与 […]

发布时间:2025年11月3日
电子信息技术部计划出台新规,严管深度伪造与合成内容

电子信息技术部计划出台新规,严管深度伪造与合成内容

快速阅读: 电子信息技术部计划出台新法,规范深度伪造与合成内容,涵盖AI全领域,要求内容标注和验证,主要社交媒体平台需承担额外责任。 电子信息技术部(MeitY)计划出台新法律,以规范深度伪造和合成内容。该法律将涵盖人工智能及其应用的所有方 […]

发布时间:2025年11月3日
OpenAI CEO驳斥营收质疑,称公司收入远超130亿美元

OpenAI CEO驳斥营收质疑,称公司收入远超130亿美元

快速阅读: OpenAI CEO Sam Altman在播客中透露,公司年收入远超130亿美元,未来十年计划投资超1万亿美元于计算基础设施。面对资金质疑,Altman表示收入正快速增长,并不排除上市可能性。 近日,OpenAI首席执行官Sa […]

发布时间:2025年11月3日
古尔曼:苹果AI功能“Apple Intelligence”入华计划推迟至iOS 26.4

古尔曼:苹果AI功能“Apple Intelligence”入华计划推迟至iOS 26.4

快速阅读: 苹果AI功能“Apple Intelligence”原计划2025年中在中国推出,因技术挑战推迟至iOS 26.4版本,将与新一代Siri同步发布。 IT之家11月2日报道,彭博社记者马克·古尔曼(Mark Gurman)在其最 […]

发布时间:2025年11月3日
微软CEO纳德拉宣布扩大员工规模,重点发展AI和运营效率

微软CEO纳德拉宣布扩大员工规模,重点发展AI和运营效率

快速阅读: 微软CEO纳德拉宣布扩大员工队伍,重点发展人工智能与提升运营效率,强调适应新工作方式的重要性,预计新增人员将产生更大杠杆效应。 微软首席执行官萨提亚·纳德拉宣布了这家科技巨头扩大员工队伍的计划,重点放在人工智能和运营效率上。“我 […]

发布时间:2025年11月3日
亚马逊AI购物助手Rufus预计年增销售额100亿美元

亚马逊AI购物助手Rufus预计年增销售额100亿美元

快速阅读: 亚马逊AI购物助手Rufus预计每年将为公司带来100亿美元额外销售额,月活跃用户增长140%,使用Rufus的客户购买可能性提高60%。 如果对亚马逊通过人工智能实现盈利的能力还有所怀疑,“万有商店”给出了一个惊人的数字:其A […]

发布时间:2025年11月3日
伦敦首家AI面部定制服务亮相

伦敦首家AI面部定制服务亮相

快速阅读: 周一晚,作者前往伦敦帕森斯格林妮可护士美学诊所体验AI皮肤分析服务。该技术利用数百万数据点,快速无创地分析皮肤需求。作者上传自拍后,几分钟内收到分析结果,略带调侃。 在一个周一的晚上,我来到了位于帕森斯格林的妮可护士美学诊所(伦 […]

发布时间:2025年11月3日