研究团队揭露AI“推理”真相:模式匹配而非逻辑思考
快速阅读: 学者质疑AI“推理”能力,实为复杂模式匹配。研究显示,大型语言模型面对新任务时,常因依赖训练数据而产生错误答案,提醒警惕过度解读AI能力。
自从人工智能程序开始让公众印象深刻以来,人工智能学者一直在对其技术的深层意义提出主张,甚至断言其具有类似人类的理解能力。学者们之所以能够如此哲学地探讨这一话题,是因为即使是创建了如OpenAI的GPT-5等模型的科学家,也并不完全理解这些程序的工作原理。
随着AI程序,尤其是大型语言模型(LLM)的普及,它们成为了著名的“黑箱”。尽管这些模型取得了许多令人印象深刻的成就,但我们无法全面观察它们在接收输入(例如您键入的提示)并生成输出(例如您请求的大学论文或新小说的建议)时所进行的所有操作。
在这种情况下,科学家们开始使用诸如“推理”之类的日常术语来描述这些程序的工作方式。在这个过程中,他们要么暗示,要么直接声称这些程序可以像人类一样“思考”、“推理”和“知道”。
在过去两年里,这种言论已经超越了科学本身,因为AI企业的高管们利用夸张的说法扭曲了一些简单的工程成就。例如,OpenAI在去年九月发布的关于其o1推理模型的新闻稿中提到,“类似于一个人在回答难题前会深思熟虑,o1在尝试解决问题时也会使用思维链”,因此“o1学会了磨练其思维链并改进它所使用的策略。”
从这些拟人化的说法到各种极端的断言只有一步之遥,比如OpenAI首席执行官萨姆·阿尔特曼在今年六月的评论:“我们已经越过了事件的地平线,起飞已经开始。人类即将构建出数字超级智能。”
然而,这种过度炒作正在引起反弹,一些AI科学家通过严格的技術审查来揭穿所谓的人类智能假设。上个月发表在arXiv预印服务器上的论文(尚未经过同行评审),作者——亚利桑那州立大学的程帅赵及其同事——通过一个简单的实验拆解了“推理”这一说法。他们的结论是,“思维链推理是一个脆弱的幻象”,它“不是真正的逻辑推理机制,而是一种复杂的结构化模式匹配形式”。
“思维链”(CoT)一词通常用来描述大型推理模型(如GPT-o1或DeepSeek V1)在解决问题前展示工作过程时产生的详细输出流。程帅赵及其团队写道,这种陈述流并不像看起来那么深刻或有意义。“思维链推理的经验成功导致人们认为大型语言模型(LLM)参与了有意的推断过程。”然而,“越来越多的分析表明,LLM倾向于依赖表面语义和线索,而非逻辑程序”,“LLM根据学习到的令牌关联构建浅层的逻辑链,经常在偏离常识启发式或熟悉模板的任务上失败”。
为了测试LLM实际上只是模式匹配而不是真正推理的假设,他们采用了称为“数据炼金术”的方法,从头开始训练OpenAI较旧的开源LLM,GPT-2(2019年发布)。该模型从零开始训练,仅限于操纵英文字母表中的26个字母“A, B, C…等”。这个简化的语料库使程帅赵及其团队能够使用一系列非常简单的任务测试LLM,所有任务都涉及对字母序列的操作,例如将每个字母移动一定数量的位置,使得“APPLE”变为“EAPPL”。
赵及其团队利用有限的令牌数量和任务,研究了语言模型在训练数据中暴露于哪些任务与在完成模型测试时仅看到的任务之间的差异。例如,“将每个元素移动13位”。这是一项测试,旨在考察语言模型在面对从未见过的新任务时,能否推理出解决方法。
他们发现,当任务未包含在训练数据中时,语言模型无法通过思维链正确完成这些任务。该AI模型尝试使用其训练数据中的任务,其“推理”听起来合理,但最终产生的答案却是错误的。正如赵及其团队所言:“大型语言模型试图基于训练过程中见过的最相似路径来泛化推理路径,这导致了正确的推理路径,但答案却是错误的。”
针对这一现象,作者们提出了几点教训。首先,他们建议“警惕过度依赖和虚假自信”,因为“大型语言模型产生‘流畅的谬误’——看似合理但实际上逻辑有误的推理链——可能比直接错误的答案更具欺骗性和破坏性,因为它投射出一种虚假的可靠感。”此外,应尝试那些不太可能包含在训练数据中的任务,以对AI模型进行压力测试。
赵及其团队的研究重要之处在于,它打破了关于超级智能的炒作,让我们重新回到理解AI实际在做什么的基本层面。2022年,谷歌大脑团队的Jason Wei等人进行了关于“思维链提示在大型语言模型中引发推理”的原始研究——这项研究自发表以来已被引用超过1万次——作者并未声称存在真正的推理能力。Wei及其团队注意到,提示一个大型语言模型列出解决问题的步骤(例如,算术文字问题:“如果罐子里有10块饼干,Sally拿出一块,还剩多少?”)通常会导致更正确的解决方案,平均而言。但他们谨慎地没有断言人类般的推理能力。“尽管思维链模仿了人类推理者的思考过程,但这并不回答神经网络是否真的在‘推理’的问题,我们将其作为一个开放的问题留待解决。”
然而,自那时起,Altman的声明以及来自AI推广者的一系列新闻稿越来越强调使用松散和草率的修辞来描述人类般的推理能力,这并不尊重Wei及其团队的技术描述。赵及其团队的工作提醒我们,对于机器实际在做什么,我们应该具体而非迷信,避免夸大其词。
关于GPT-5的编码技能,我再次使用OpenAI的指导进行了测试,现在我对它的信任度更低了。如何在VS Code中使用GPT-5与GitHub Copilot?这是我试过的最快的本地AI,而且差距明显——如何获取它?ChatGPT Plus是否仍值20美元,尤其是免费版本已经提供了很多功能——包括GPT-5?
(以上内容均由Ai生成)