物理学突破揭示了 AI 模型产生幻觉和显示偏差的原因
快速阅读: 据《科学博客 (Weblog)》称,研究揭示AI神秘行为背后的数学原理,通过物理学视角解析注意力机制,发现其类似旋转陀螺的双体系统。此突破有助于开发更安全可靠的AI系统,强调跨学科合作的重要性。
研究人员揭示了人工智能最令人费解行为背后的数学秘密,这可能为更安全、更可靠的AI系统铺平道路。乔治·华盛顿大学的一支物理学家团队开发了首个全面的理论,解释了像ChatGPT这样的模型为何有时会无休止地重复自身、编造内容,甚至从无辜的问题中生成有害内容。这项由尼尔·约翰逊和方兴杰·霍主持的研究,通过物理学的视角分析大型语言模型的核心机制——注意力机制,揭示了其中的奥秘。“我们推导出了大型语言模型‘魔法’核心的AI引擎的第一性原理物理理论,”研究者在题为《捕捉AI的注意力:重复、幻觉、偏见及其他》的预印本论文中写道。
他们的工作揭示了一些令人惊讶的事情:注意力机制的表现非常像两个一起旋转的陀螺。这个“双体哈密顿系统”解释了为什么尽管AI系统具备令人印象深刻的能力,但仍会展现出奇怪的行为。虽然大多数用户都经历过AI模型偶尔产生重复文本或虚构信息的情况,但其根本原因一直是个谜。研究团队发现这些问题源于AI处理信息的基本属性,而不仅仅是训练数据中的缺陷。
根据研究者所述,AI模型预测序列中下一个单词的方式类似于物理学家在相互作用粒子的统计集合中计算概率的方式。这一概念上的突破有助于解释为什么当特定的“有害”词汇由于训练而深埋于词表中时,它们可能会暂时在系统生成的内容上占据最大的投影,从而导致有害内容的出现。该研究展示了模型训练中的微小偏差如何导致显著的输出变化。这解释了为什么即使受到严格保护的模型仍可能产生有问题的内容。
未参与此项研究的AI伦理学研究员伊丽莎白·摩根博士认为这些发现意义重大。“理解AI注意力的物理特性可以为我们提供新的工具来防止有害输出,而不影响性能,”她在电话采访中说道,“这正是该领域需要的基础研究。”
乔治·华盛顿大学团队的分析超越了当前的方法,后者通常涉及对整个神经架构的复杂分析。相反,他们从第一性原理出发,构建了一个精确预测AI输出何时以及为何出错的数学框架。他们的研究表明当前的AI系统严重依赖于标记(单词或单词片段)之间的两体交互,类似于复杂的物理系统可以通过简单的描述进行近似。更有趣的是,他们推测添加三体交互可能会使AI系统表现得更好——这可能引领下一代更强大的模型。
“它与自旋浴的相似性意味着现有的物理专业知识可以立即用于帮助社会确保AI值得信赖且不易被操纵,”研究者在摘要中总结道。随着全球政府应对AI监管问题,公司竞相部署越来越强大的模型,这一理论突破可能为确保这些系统保持有益而非有害提供了关键工具。
这些发现还突显了跨学科方法的重要性——将物理学原理应用于计算问题——这或许能帮助解决先进科技面临的最紧迫挑战之一。对于一个经常因缺乏足够理解而行动过快的领域来说,这种更深层次的理论基础来得正是时候。
支持独立科学报道:今天就做出改变
如果我们的报道让您有所启发或教育,请考虑捐款。无论金额大小,您的贡献都能让我们继续提供准确、引人入胜且可信的科学和医学新闻。独立新闻需要时间、精力和资源——您的支持确保我们可以继续挖掘对您最重要的故事。加入我们,让知识变得可及且有影响力。感谢您与我们站在一起!
(以上内容均由Ai生成)