AI为何常编造不实信息?训练方式成关键

发布时间:2025年11月2日    来源:szf
AI为何常编造不实信息?训练方式成关键

快速阅读: 研究人员指出,AI模型如ChatGPT可能因训练方式产生“幻觉”,即编造不真实信息。模型通过概率计算生成答案,缺乏真实数据时易出错。OpenAI建议模型表达不确定性以减少幻觉,但实施难度大。

为什么人工智能会编造不真实的信息?

这归根结底于这些系统的训练方式,研究人员表示。

尽管ChatGPT是最知名且广泛使用的大型语言模型之一,但它仍可能提供含有错误的答案。

(图片:Matt Rourke,AP,NTB)

记者:拉斯·比尔纳斯塔德

发布时间:2025年11月2日 – 00:01

你可能亲身经历过这种情况。有时,大型AI模型给出的答案看似正确。

它表现得非常自信,但实际上可能是完全虚构的。

这是语言模型的一个基本问题,即使是最先进的模型也未能解决这一“幻觉”现象,这是OpenAI公司——最著名的语言模型ChatGPT背后的公司——几位研究人员撰写的文章中提到的。

文章发表在预印本档案Arxiv上,但尚未经过同行评审。

尽管如此,这篇文章已经引发了关于如何处理语言模型不确定性问题的讨论,奥斯陆大学信息学系教授埃里克·维尔达尔告诉《科学挪威》。

另一位研究者认为,OpenAI提出的解决方案可能会彻底破坏人们与这些AI模型的关系,这一点将在后文中详细讨论。

但首先,这些“幻觉”是如何产生的?当模型没有一个好的答案时,它们应该怎么做?

奥斯陆大学信息学系教授埃里克·维尔达尔

(图片:奥斯陆大学)

“事情可能会出错”

维尔达尔告诉《科学挪威》,幻觉是语言模型工作原理的一部分。

“这些模型是对词序列的概率分布,而不是关于世界的事实数据库,”他说。

换句话说,像ChatGPT这样的模型产生的句子是概率计算的结果。每个词的选择都是基于其前面词最可能出现的情况。

因此,有时事情可能会偏离轨道。

“特别是在训练数据中代表性不足的主题上,事情更容易出错,”维尔达尔说。

这时,模型可能会开始产生听起来合理但实际上并不真实的答案。例如,虚构的研究。

“它可以编造一些听起来可能的事情,甚至杜撰标题和参考文献,看起来很真实。也许它还会使用真实研究者的姓名作为作者,”他说。

文章的作者指出,在训练过程中,模型因猜测而得到奖励,而不是因为表达不确定性。

多项选择

当AI模型接受训练时,会使用不同类型的测试来评估其性能。这些测试也可以是多项选择形式,其中模型有明确的答案选项可供选择。

这可以与人类参加此类测试相比较,研究人员在文章中写道。猜测总比什么都不做要好,因为至少有机会答对。

“问题是,模型不会因为承认不知道某件事而获得奖励,所以它只会猜测,”维尔达尔说。

研究人员建议引入“我不知道”选项。

这样做可以让模型学会表达不确定性,而不是编造答案。维尔达尔认为,如果这种做法成为模型训练评估的一部分,可能会减少幻觉的发生。

然而,他补充说,这种方法可能不适用于较长的开放式任务,比如撰写论文或总结研究。

“当人们要求模型总结知识或撰写某个主题时,很难看到该提议如何起作用,”维尔达尔说。

仍然存在的问题

幻觉仍然是一个持续的挑战。

最近的一个例子来自挪威广播公司NRK,该公司让语言模型回答公共广播网站上的新闻相关问题。

45%的回答包含重大错误,包括编造的新闻文章和虚假链接,据NRK报道(链接为挪威语)。

即便如此,维尔达尔表示,过去一年情况有所改善。

“主要是因为语言模型越来越多地与互联网搜索和外部工具结合使用。这有助于将答案建立在真实信息的基础上,”他说。

但模型是否应该更好地传达不确定性?

“用户可能会放弃这样的系统”

OpenAI提出的一个解决方案是让语言模型在给出答案之前评估自己对该答案的信心程度,研究员韦兴在《对话》杂志中写道。

根据文章中的数据,他认为这种方法可能导致大型语言模型大约三分之一的时间以“我不知道”开始回应。

他认为:“习惯于几乎任何问题都能得到自信回答的用户可能会迅速放弃这样的系统。”

维尔达尔并不完全同意这一观点。

“当然,人们希望获得明确的答案,但如果答案是错误的,他们也不会接受。我宁愿模型承认它不知道,但也不应过于谨慎。”他说道。

维尔达尔指出,如果模型因为害怕出错而频繁回应‘我帮不了你’,那它也不会很有用。

(以上内容均由Ai生成)

你可能还想读

谷歌发布Gems可视化编辑器实现文字秒变App

谷歌发布Gems可视化编辑器实现文字秒变App

快速阅读: 据谷歌消息,该公司近日将“氛围编程”工具Opal集成至Gemini平台,用户可通过自然语言创建自定义AI迷你应用“Gems”,无需编码即可拖拽调整逻辑流程,此举显著降低开发门槛,回应Lovable等竞品挑战。 谷歌近日宣布将“氛 […]

发布时间:2025年12月18日
Adobe被诉非法使用盗版书训练AI模型

Adobe被诉非法使用盗版书训练AI模型

快速阅读: 12月18日消息,俄勒冈州作家伊丽莎白·里昂对Adobe提起集体诉讼,指控其开发的SlimLM模型使用包含盗版书籍的非法数据集进行AI训练。该模型用于移动文档辅助,所涉数据集源自争议性RedPajama项目,暴露出Adobe技术 […]

发布时间:2025年12月18日
苹果开源SHARP模型 1秒实现2D转3D

苹果开源SHARP模型 1秒实现2D转3D

快速阅读: 据苹果公司消息,其开源新型AI模型SHARP,基于3D高斯泼溅技术,可在一秒内将2D照片转为具真实比例的3D场景,显著优于现有模型,并已开放代码供全球开发者使用。 近日,苹果公司开源了一款名为SHARP的新型人工智能模型,在3D […]

发布时间:2025年12月18日
Google将Opal集成至Gemini零代码打造AI助手Gems

Google将Opal集成至Gemini零代码打造AI助手Gems

快速阅读: 据外媒报道,谷歌将“氛围编程”工具Opal整合进Gemini平台,用户可通过自然语言零代码创建个性化AI助手Gems,用于会议纪要整理、学习辅导等场景。此举大幅降低AI应用开发门槛,推动谷歌从通用聊天向实用工具转型。 谷歌正推动 […]

发布时间:2025年12月18日
Meta发布SAM Audio支持点击分离声音

Meta发布SAM Audio支持点击分离声音

快速阅读: 据Meta消息,该公司近日推出全球首个统一多模态音频分离模型SAM Audio,支持通过文本、视觉或时间提示精准提取目标声音。其自研感知编码器PE-AV实现视听深度融合,并同步开源评测基准与自动评估工具,将赋能字幕生成、AR交互 […]

发布时间:2025年12月18日
谷歌Gemini2.5音频模型函数调用准确率超OpenAI

谷歌Gemini2.5音频模型函数调用准确率超OpenAI

快速阅读: 据谷歌消息,其Gemini 2.5 Flash Native Audio模型完成重大升级,可直接处理语调与情感,无需语音转文字,指令遵循率提升至90%;在ComplexFuncBench测试中,准确率优于OpenAI竞品,现已接 […]

发布时间:2025年12月18日
Firefox新CEO宣布AI功能将设为可选项

Firefox新CEO宣布AI功能将设为可选项

快速阅读: 据Mozilla消息,该公司任命Anthony Enzor-DeMeo为新任CEO,明确Firefox将提供可选AI功能以保障用户隐私与控制权,并整合Thunderbird及Soloist.ai打造多元产品矩阵,降低对谷歌搜索收 […]

发布时间:2025年12月18日
Google将Opal集成至Gemini网页端

Google将Opal集成至Gemini网页端

快速阅读: 据谷歌消息,该公司近日将“氛围编程”工具Opal集成至Gemini网页端,向普通用户开放AI应用创建能力。用户仅需自然语言描述即可生成可运行的迷你应用,并通过流程图编辑器直观调整逻辑,以打造全球最易用的AI创作平台。 近日,谷歌 […]

发布时间:2025年12月18日