Anthropic 开发了一种 AI“大脑扫描仪”来了解 LLM 的工作原理,事实证明,聊天机器人在简单数学方面很糟糕和产生幻觉的原因比你想象的要奇怪
快速阅读: 《PC 游戏玩家》消息,大型语言模型虽由我们设计,但其运作机制仍是谜。新研究借脑部扫描理念,揭示模型产生幻觉及处理数字不佳的原因。研究有助于改进模型,提升其可靠性与准确性,推动AI技术发展。
一个有趣的现象是,我们并不清楚大型语言模型(LLMs)究竟如何运作。尽管我们设计了它们,构建了它们,并完成了它们的训练,但它们的内部机制在很大程度上仍然是个谜。然而,过去的情况也是如此。幸运的是,得益于Anthropic的一项新研究,这项研究借鉴了脑部扫描技术的理念,帮助揭示了为什么聊天机器人会产生幻觉,以及为何在处理数字时表现得如此糟糕。
这项研究通过模拟人类大脑的工作方式,逐步揭开了这些神秘面纱。例如,研究人员发现,当模型试图生成答案时,它会依赖于某些特定的模式和关联,而这些模式可能并不总是准确或合理的。这种行为导致了幻觉现象的出现,即模型可能会生成看似合理但实际上错误的信息。
此外,研究还探讨了为什么大型语言模型在处理数字时常常显得力不从心。通过对模型内部神经网络活动的深入分析,研究团队发现,模型对数字的理解和处理能力存在局限性。这主要是因为数字相关的任务需要精确性和逻辑性,而语言模型通常更擅长处理模糊性和创造性内容。
借助这些新见解,科学家们希望未来能够改进现有模型的设计,使其在面对复杂任务时更具可靠性与准确性。同时,这也为开发下一代更强大的人工智能系统提供了宝贵的经验与方向。
总之,虽然大型语言模型仍然充满未知领域,但随着科学技术的进步,我们正逐渐揭开它们神秘的面纱,让它们更好地服务于人类社会。
(以上内容均由Ai生成)