科学家们测试了 AI 的认知能力下降。结果令人震惊。
快速阅读: 据《科学警报》最新报道,自两年前OpenAI的ChatGPT问世以来,大型语言模型(LLM)已成为常见的人工智能应用。以色列研究人员发现,这些模型随时间表现出类似人类的认知衰退。通过一系列测试,包括蒙特利尔认知评估,结果显示,即使是最新模型也存在认知障碍,尤其是在视觉空间和执行功能方面。这项研究指出,尽管AI技术不断进步,但当前的LLM在复杂场景理解和同理心方面仍有不足。该研究已发表在《英国医学期刊》上。
自两年前OpenAI的ChatGPT向公众开放,邀请互联网上的任何人与人工智能在诗歌、学校作业到给房东的信件等方面合作以来,如今,这个著名的大语言模型(LLM)只是众多看起来能做出类人回应的领先程序之一。以色列的研究人员发现,LLM也会随着时间增长表现出类似人类的认知衰退。来自哈达萨医疗中心的神经学家罗伊·达扬和本杰明·乌利尔,以及特拉维夫大学的数据科学家加尔·科普勒维茨描述了一种似乎可比于人类大脑神经退化过程的认知衰退。尽管LLM拥有个性,它们更接近于手机上的自动补全功能,而不是基于我们大脑中软组织生成知识的方式。这种方法虽然提高了速度和友好性,但在辨别真实信息和虚构内容方面仍显不足,容易被误导。公平地说,人类大脑在偶尔采取思维捷径时也不完美。然而,随着人们对AI提供可靠智慧(甚至包括医学和法律建议)的期望增加,人们认为新一代LLM会找到更好的方法来理解其实际所说的内容。
为了了解我们还有多远的路要走,达扬、乌利尔和科普勒维茨应用了一系列测试,包括神经学家常用的蒙特利尔认知评估(蒙特利尔认知评估),用于测量记忆、空间技能和执行功能等心智能力。ChatGPT 4.0在评估中得分最高,达到30分中的26分,表明存在轻微的认知障碍。其次是ChatGPT 4和Claude(克劳德),各得25分;而Gemini(双子座)仅得16分,这在人类中可能表明严重障碍。深入研究结果,所有模型在视觉空间/执行功能指标上表现不佳。这些包括连线任务、复制简单立方体设计或画钟表,LLM要么完全失败,要么需要明确的指示。在回答有关主体空间位置的问题时,一些回答类似于痴呆症患者使用的回答,例如克劳德的回答:“具体地点和城市取决于您,用户,当前所处的位置。”同样,在波士顿诊断性失语症检查的一个特征中,所有模型都缺乏同理心,可以解释为额颞叶痴呆的迹象。
不出所料,较旧版本的LLM在测试中的得分低于较新版本,表明每一代AI都在设法弥补其前辈的认知局限。作者承认LLM不是人类大脑,因此不可能用任何类型的痴呆症来“诊断”测试过的模型。但这些测试也挑战了我们即将迎来临床医学领域AI革命的假设,该领域经常依赖于解读复杂的视觉场景。随着人工智能创新步伐的加速,未来几十年我们可能会看到第一个LLM在认知评估任务中获得高分。在此之前,即使是最先进的聊天机器人所提供的建议也应该持怀疑态度。这项研究发表在《英国医学期刊》上。
(以上内容均由Ai生成)