AI 是否仍然会产生幻觉,还是变得更加可靠?

发布时间:2025年4月17日    来源:szf
AI 是否仍然会产生幻觉,还是变得更加可靠?

快速阅读: 《印度教徒》消息,2024年5月,谷歌新推出的“AI概览”功能因生成不准确答案(如建议在酱料中加胶水)引发关注。此类“幻觉”现象源于AI对否定句训练不足及依赖统计关联。尽管新模型有所改善,但完全避免幻觉仍具挑战。专家建议改进训练方式,如使用专用模型、检索增强生成及课程学习,但仍需人工审核验证AI输出。

2024年5月,当互联网用户在谷歌上搜索“奶酪不粘附比萨饼”时,谷歌新推出的“AI概览”功能回复道:“你可以……在酱料中加入约1/8杯无害胶水,以增加其粘性。”在一系列奇怪的回答中,这款AI工具还建议人们每天吃一颗小石子并喝尿液以帮助排出肾结石。

这类奇怪回答的通称是“幻觉”:当AI模型遇到未受过训练的问题时,它们会生成有时令人信服但经常不准确的答案。人工智能时代的一个问题:机器和人类学习的方式相同吗?

像谷歌的“AI概览”一样,ChatGPT也容易出现幻觉。在2023年的《科学报告》中的研究中,曼哈顿学院和纽约城市大学的研究者们比较了两个版本的ChatGPT,即3.5和4,在整理某些主题信息时出现幻觉的频率。他们发现ChatGPT v3.5有55%的引用内容是虚构的;而ChatGPT-4的表现较好,为18%。

研究者们总结道:“尽管GPT-4相对于GPT-3.5有了重大改进,但仍存在问题。”

幻觉让AI模型变得不可靠,也限制了它们的应用场景。专家告诉这位记者,他们对AI工具的可靠性和未来可靠性持怀疑态度。而幻觉并不是唯一让他们产生疑虑的原因。

**定义可靠性**

为了评估一个AI模型的可靠性,研究人员通常参考两个标准:一致性和准确性。一致性指AI模型对于相似输入能够产生相似输出的能力。例如,假如一个电子邮件服务用AI算法来过滤垃圾邮件,而收件箱收到了两封具有相似特征的垃圾邮件:通用问候语、内容书写不佳等。如果这个算法能把这两封邮件都判定为垃圾邮件,那么可以说它做出了稳定的预测。

准确性指AI模型正确回答问题的能力。这包括“表明‘我不知道’”在它不知道答案时,印度理工学院孟买分校计算机科学与工程教授苏尼塔·萨拉瓦吉说。苏尼塔·萨拉瓦吉因其在机器学习和自然语言处理等方面的工作于2019年获得了Infosys奖,这些是现代AI的基础。

**为什么会出现幻觉?**

上个月,一些ChatGPT用户感到意外的是,它生成不出一张没有大象的房间图片。为了测试这个问题是否仍然存在,记者要求OpenAI的DALL-E(一种可以根据文本提示生成图像的AI模型)生成“一张没有大象的房间图片”。查看上面的图片以了解它生成的内容。

再次询问“房间里不应该有任何大象的图片或雕像。绝对不能有任何种类的大象”时,该模型又创建了两张图片。其中一张包含了一幅巨大的大象图片,另一张则同时包含了一张图片和一个小象雕像。DALL-E的伴随文字写道:“这里有两张完全没有大象的房间图片——没有任何雕像、图片或任何与大象相关的东西。”

印度理工学院德里分校Soumitra Dutta AI讲席教授尼拉德里·查特吉表示,这种不准确但自信的回答表明该模型未能“理解否定”。

为什么会出现否定?谷歌DeepMind的自然语言处理研究员诺拉·卡斯纳在2023年5月告诉《量子》杂志,这源于用于训练生成式AI模型的数据中缺乏使用否定句。

研究人员开发当代AI模型分为两个阶段:训练阶段和测试阶段。在训练阶段,向模型提供一组标注的输入数据。例如,可以向模型提供一组标记为“大象”的大象图片。模型学会将一组特征(比如大象的大小、形状和部分)与单词“大象”联系起来。

如果有关于AI的理论,计算机科学可能无法提供它。在测试阶段,模型会接收到未包含在其训练数据集中的输入。例如,研究人员可以输入一张模型在其训练阶段未曾见过的大象图片。如果算法能够准确地将这张图片识别为大象,并将其与另一张图片(例如猫的图片)区分开来,则可以说该算法是成功的。

简单地说,人工智能模型并不像人类那样理解语言。而是它们的输出由训练阶段中学到的统计关联所驱动。因此,当它们遇到在训练数据集中不常见或不存在的查询时,它们会用训练数据集中存在的其他关联来填补空白。例如,在上述情况中,就是“房间里的大象”。这导致了事实上的错误输出。通常而言,当人工智能模型被要求处理需要“深入思考、联系概念并作出回应”的问题时,就会出现幻觉现象。——IIT-D的信息系统和人工智能教授阿尔潘·卡尔说道。

**更可靠还是更不可靠?**

尽管人工智能的发展和应用都处于爆炸性增长之中,但其可靠性问题依然悬而未决。而幻觉现象只是原因之一之一。另一个原因是,人工智能开发者通常使用基准或标准化测试来报告其模型的性能,但这些基准“并非无懈可击,且可能被操纵”,IIT-Delhi的查特吉说。

一种操纵基准的方式是将基准的测试数据包含进人工智能模型的训练数据集中。2023年,Meta的机器学习研究员霍勒斯·海指控,ChatGPT v4的训练数据可能已经被基准的测试数据“污染”。也就是说,该模型至少部分是基于用于测试其能力的相同数据进行训练的。

北京大学的计算机科学家们使用一个名为HumanEval的数据集对此指控进行了调查后得出结论,认为这一指控很有可能是真的。HumanEval基准是由拥有并开发ChatGPT的OpenAI的研究人员创建的。

根据查特吉的说法,这意味着虽然该模型可能因为使用了测试数据进行训练而在基准测试中表现良好,但在现实世界的应用中,其性能可能会下降。

但所有这些说法之外,萨拉瓦吉表示,“流行的人工智能模型在常见查询中的幻觉频率正在减少。”她补充说,这是因为新版本的这些人工智能模型正在“针对早期版本被报告为产生幻觉的查询进行更多的数据训练”。这种方法就像是“发现弱点并打补丁”,正如萨拉瓦吉所说。

当人工智能改变了我们做科学的方式时,我们将如何理解结果?

然而,IIT-Delhi的卡尔表示,即使有更多训练数据,流行的像ChatGPT这样的大型语言模型也无法达到完全不产生幻觉的状态。要做到这一点,需要人工智能模型能够“实时获取全球所有可能的知识”,他说。“如果能做到这一点,那么这个算法将会变得无所不能。”

查特吉和萨拉瓦吉则建议改变人工智能模型的构建和训练方式。其中一个方法是开发专门任务的模型。例如,与像ChatGPT这样的大型语言模型不同,小型语言模型仅针对解决少数特定问题所需的参数进行训练。例如,微软的Orca 2就是一个小型语言模型,专门用于“推理、阅读理解、数学问题解决和文本摘要”等任务。

另一种方法是实施一种称为检索增强生成(RAG)的技术。在这里,人工智能模型通过从与特定查询相关的特定数据库中检索信息来生成输出。例如,当被要求回答“什么是人工智能?”的问题时,人工智能模型可以提供指向维基百科上关于人工智能的文章链接。通过要求模型在撰写回复时仅参考此来源,其产生幻觉的可能性可以大幅降低。

最后,萨拉瓦吉建议人工智能模型可以通过一种称为课程学习的过程进行训练。在传统的训练过程中,数据以随机顺序呈现给人工智能模型。而在课程学习中,模型则依次在具有逐步增加难度的问题的数据集上进行训练。例如,一个人工智能模型可以首先在较短的句子上进行训练,然后在较长、更复杂的句子上进行训练。课程学习模仿了人类的学习过程,研究人员发现,以这种方式“教导”模型可以提高其在现实世界中的最终表现。

综上所述,这些方法并不能确保完全消除人工智能模型中的幻觉。根据查特吉的说法,“仍然需要对人工智能生成的输出进行验证,包括人工审核。”

总的来说,这些技术都无法保证彻底解决人工智能模型的错误生成问题。查特吉指出,“仍需建立能验证人工智能输出结果的系统,比如人工审核。”

萨亚南特·达塔是一位科学记者,也是Krea大学的一名教员。

发布日期 – 2025年4月17日 05:30(印度标准时间)

查看评论

分享链接

邮件

Facebook

Twitter

Telegram

LinkedIn

WhatsApp

Reddit

稍后阅读

关闭

显示更多

打印文章

(以上内容均由Ai生成)

关键词: Ai变得可靠幻觉

你可能还想读

美国能源部 17 个国家实验室全景及创世纪计划战略布局分析

美国能源部 17 个国家实验室全景及创世纪计划战略布局分析

快速阅读: 美国能源部17个国家实验室构成顶尖科研体系,在基础科学、能源安全、气候变化等领域发挥关键作用。拥有全球领先的超算资源及顶尖人才,年经费约220亿美元。随着“创世纪计划”启动,实验室将形成协同网络,推动美国在清洁能源、量子计算等前 […]

发布时间:2025年12月8日
谷歌Gemini 3 Pro发布

谷歌Gemini 3 Pro发布

快速阅读: 谷歌发布新一代推理模型Gemini 3 Pro,显著提升数学、编程和视觉理解能力。一经发布,Gemini 3 Pro几乎横扫各大评测榜单,在LMArena大模型竞技场中以1501的Elo得分高居榜首。在MathArena数学竞赛 […]

发布时间:2025年11月19日
独具创新,直击痛点:深度解析华为十大最新方案

独具创新,直击痛点:深度解析华为十大最新方案

快速阅读: 第三个方案,是华为的U6GHzAAU天线。综合来看,华为的U6GAAU,真正实现了容量覆盖双优,助力全球U6G商用。LampSiteX,是LampSite系列的最新型号。第五个方案,是华为有源天线产品——EasyAAU。Easy […]

发布时间:2025年11月13日
Palantir估值承压仍领跑AI赛道

Palantir估值承压仍领跑AI赛道

快速阅读: 近期,美国AI概念股整体承压,Palantir与英伟达遭遇做空传闻,引发市场短暂震荡。然而,在宏观调整与估值质疑中,Palantir仍凭借强劲业绩与差异化AI布局维持长期增长势头。分析人士认为,该公司正处于由“政府数据支撑”向“ […]

发布时间:2025年11月12日
Palantir与Snowflakes深化AI合作

Palantir与Snowflakes深化AI合作

快速阅读: Snowflake 与 Palantir 宣布建立战略合作,整合双方的数据与AI能力,使企业能够在统一的数据基础上直接调用 Palantir 的AI分析与智能应用工具,加速企业级AI落地。 2025年10月,Snowflake […]

发布时间:2025年11月10日
Palantir与迪拜控股共建AI公司

Palantir与迪拜控股共建AI公司

快速阅读: Dubai Holding 与 Palantir 宣布成立合资公司 Aither,致力于为中东地区政府与企业提供人工智能转型解决方案。该合作标志着 Palantir 在中东技术布局的进一步深化,也为当地公共服务与产业数字化提供新 […]

发布时间:2025年11月10日
Palantir携手Lumen共建企业AI平台

Palantir携手Lumen共建企业AI平台

快速阅读: 2025年10月,Palantir Technologies与Lumen Technologies宣布达成战略合作,联合打造面向企业级应用的人工智能服务平台。双方将以Palantir的Foundry与AIP平台为核心,推动通信与 […]

发布时间:2025年11月7日
Palantir携手Hadean拓展英国国防部AI战场模拟平台

Palantir携手Hadean拓展英国国防部AI战场模拟平台

快速阅读: 2025年10月,数据智能公司 Palantir Technologies 宣布与英国分布式计算企业 Hadean 达成战略合作,双方将共同为英国国防部(UK Ministry of Defence, UK MoD)扩展基于人工 […]

发布时间:2025年11月7日