AI

研究团队揭露AI“推理”真相:模式匹配而非逻辑思考

发布时间:2025年9月6日    来源:szf
研究团队揭露AI“推理”真相:模式匹配而非逻辑思考

快速阅读: 学者质疑AI“推理”能力,实为复杂模式匹配。研究显示,大型语言模型面对新任务时,常因依赖训练数据而产生错误答案,提醒警惕过度解读AI能力。

自从人工智能程序开始让公众印象深刻以来,人工智能学者一直在对其技术的深层意义提出主张,甚至断言其具有类似人类的理解能力。学者们之所以能够如此哲学地探讨这一话题,是因为即使是创建了如OpenAI的GPT-5等模型的科学家,也并不完全理解这些程序的工作原理。

随着AI程序,尤其是大型语言模型(LLM)的普及,它们成为了著名的“黑箱”。尽管这些模型取得了许多令人印象深刻的成就,但我们无法全面观察它们在接收输入(例如您键入的提示)并生成输出(例如您请求的大学论文或新小说的建议)时所进行的所有操作。

在这种情况下,科学家们开始使用诸如“推理”之类的日常术语来描述这些程序的工作方式。在这个过程中,他们要么暗示,要么直接声称这些程序可以像人类一样“思考”、“推理”和“知道”。

在过去两年里,这种言论已经超越了科学本身,因为AI企业的高管们利用夸张的说法扭曲了一些简单的工程成就。例如,OpenAI在去年九月发布的关于其o1推理模型的新闻稿中提到,“类似于一个人在回答难题前会深思熟虑,o1在尝试解决问题时也会使用思维链”,因此“o1学会了磨练其思维链并改进它所使用的策略。”

从这些拟人化的说法到各种极端的断言只有一步之遥,比如OpenAI首席执行官萨姆·阿尔特曼在今年六月的评论:“我们已经越过了事件的地平线,起飞已经开始。人类即将构建出数字超级智能。”

然而,这种过度炒作正在引起反弹,一些AI科学家通过严格的技術审查来揭穿所谓的人类智能假设。上个月发表在arXiv预印服务器上的论文(尚未经过同行评审),作者——亚利桑那州立大学的程帅赵及其同事——通过一个简单的实验拆解了“推理”这一说法。他们的结论是,“思维链推理是一个脆弱的幻象”,它“不是真正的逻辑推理机制,而是一种复杂的结构化模式匹配形式”。

“思维链”(CoT)一词通常用来描述大型推理模型(如GPT-o1或DeepSeek V1)在解决问题前展示工作过程时产生的详细输出流。程帅赵及其团队写道,这种陈述流并不像看起来那么深刻或有意义。“思维链推理的经验成功导致人们认为大型语言模型(LLM)参与了有意的推断过程。”然而,“越来越多的分析表明,LLM倾向于依赖表面语义和线索,而非逻辑程序”,“LLM根据学习到的令牌关联构建浅层的逻辑链,经常在偏离常识启发式或熟悉模板的任务上失败”。

为了测试LLM实际上只是模式匹配而不是真正推理的假设,他们采用了称为“数据炼金术”的方法,从头开始训练OpenAI较旧的开源LLM,GPT-2(2019年发布)。该模型从零开始训练,仅限于操纵英文字母表中的26个字母“A, B, C…等”。这个简化的语料库使程帅赵及其团队能够使用一系列非常简单的任务测试LLM,所有任务都涉及对字母序列的操作,例如将每个字母移动一定数量的位置,使得“APPLE”变为“EAPPL”。

赵及其团队利用有限的令牌数量和任务,研究了语言模型在训练数据中暴露于哪些任务与在完成模型测试时仅看到的任务之间的差异。例如,“将每个元素移动13位”。这是一项测试,旨在考察语言模型在面对从未见过的新任务时,能否推理出解决方法。

他们发现,当任务未包含在训练数据中时,语言模型无法通过思维链正确完成这些任务。该AI模型尝试使用其训练数据中的任务,其“推理”听起来合理,但最终产生的答案却是错误的。正如赵及其团队所言:“大型语言模型试图基于训练过程中见过的最相似路径来泛化推理路径,这导致了正确的推理路径,但答案却是错误的。”

针对这一现象,作者们提出了几点教训。首先,他们建议“警惕过度依赖和虚假自信”,因为“大型语言模型产生‘流畅的谬误’——看似合理但实际上逻辑有误的推理链——可能比直接错误的答案更具欺骗性和破坏性,因为它投射出一种虚假的可靠感。”此外,应尝试那些不太可能包含在训练数据中的任务,以对AI模型进行压力测试。

赵及其团队的研究重要之处在于,它打破了关于超级智能的炒作,让我们重新回到理解AI实际在做什么的基本层面。2022年,谷歌大脑团队的Jason Wei等人进行了关于“思维链提示在大型语言模型中引发推理”的原始研究——这项研究自发表以来已被引用超过1万次——作者并未声称存在真正的推理能力。Wei及其团队注意到,提示一个大型语言模型列出解决问题的步骤(例如,算术文字问题:“如果罐子里有10块饼干,Sally拿出一块,还剩多少?”)通常会导致更正确的解决方案,平均而言。但他们谨慎地没有断言人类般的推理能力。“尽管思维链模仿了人类推理者的思考过程,但这并不回答神经网络是否真的在‘推理’的问题,我们将其作为一个开放的问题留待解决。”

然而,自那时起,Altman的声明以及来自AI推广者的一系列新闻稿越来越强调使用松散和草率的修辞来描述人类般的推理能力,这并不尊重Wei及其团队的技术描述。赵及其团队的工作提醒我们,对于机器实际在做什么,我们应该具体而非迷信,避免夸大其词。

关于GPT-5的编码技能,我再次使用OpenAI的指导进行了测试,现在我对它的信任度更低了。如何在VS Code中使用GPT-5与GitHub Copilot?这是我试过的最快的本地AI,而且差距明显——如何获取它?ChatGPT Plus是否仍值20美元,尤其是免费版本已经提供了很多功能——包括GPT-5?

(以上内容均由Ai生成)

你可能还想读

TCS推AI机器狗进军航空业

TCS推AI机器狗进军航空业

快速阅读: 据印度塔塔咨询服务公司(TCS)发布消息称,全球航空航天业加速绿色智能化转型,40%企业预计五年内实现“熄灯工厂”,数字孪生与eVTOL成重点方向,物理AI机器人有望获批用于高危场景。 日前,全球航空航天产业加速向绿色化、智能化 […]

发布时间:2025年12月8日
Meta签约多家媒体,为AI提供实时新闻

Meta签约多家媒体,为AI提供实时新闻

快速阅读: 据媒体报道,Meta与CNN、福克斯新闻等多家国际媒体签署AI数据合作协议,重启付费合作以提升Meta AI在新闻时效性与准确性方面的表现,并引导用户访问合作方网站。 日前,美国科技企业Meta宣布与多家国际新闻机构签署商业人工 […]

发布时间:2025年12月8日
Semaverse推AI平台赋能并购决策

Semaverse推AI平台赋能并购决策

快速阅读: 据最新消息,人工智能初创企业Semaverse近日推出“并购智能基础设施”平台,依托多智能体架构与智能记忆系统,为私募股权基金等提供覆盖交易全周期的五大智能化功能,助力数据驱动决策。 近日,人工智能初创企业Semaverse正式 […]

发布时间:2025年12月8日
Gartner建议全面禁用AI浏览器

Gartner建议全面禁用AI浏览器

快速阅读: 据Gartner发布消息称,AI浏览器存在严重数据安全与隐私风险,其侧边栏功能可能自动上传敏感信息至云端,企业部署前须严格评估后端安全机制并限制高危操作场景。 日前,国际知名研究机构Gartner发布风险警示,指出当前流行的AI […]

发布时间:2025年12月8日
利雅得航空携手IBM打造全球首家AI原生航司

利雅得航空携手IBM打造全球首家AI原生航司

快速阅读: 据最新消息,IBM依托混合云与红帽OpenShift技术,为175国客户提供AI及量子计算等创新方案,加速金融、医疗等关键领域数字化转型,深化本地化服务以提升全球产业链智能化水平。 国际商业机器公司(IBM)日前宣布,其作为全球 […]

发布时间:2025年12月8日
英语国家民众对AI更悲观

英语国家民众对AI更悲观

快速阅读: 据YouGov发布消息称,其2025年8月对九国调查显示,西欧民众对AI态度较积极,英语国家更悲观,就业影响最受担忧,而医疗、办公等领域获普遍认可。 日前,国际民调机构YouGov发布一项涵盖九国的调查报告显示,公众对人工智能( […]

发布时间:2025年12月8日
AI无法替代税务专家的判断与质疑

AI无法替代税务专家的判断与质疑

快速阅读: 12月8日消息,专家警示AI在税务申报中存在合规与伦理风险,强调其无法替代专业判断,呼吁合理界定应用边界,防范不法机构借智能算法诱导激进申报,确保人机协同、合法合规。 近日,有关人工智能在税务申报领域应用的讨论引发关注。专家指出 […]

发布时间:2025年12月8日
德州法学院以伦理先行培养AI时代律师

德州法学院以伦理先行培养AI时代律师

快速阅读: 据彭博法律报道,美国得州多所法学院以伦理为先推动AI审慎融入法律教育,要求明确使用规范并强调人类判断不可替代,呼应州律师协会第705号伦理准则。 近日,美国得克萨斯州在人工智能时代积极探索法律教育的务实路径,强调以伦理为先、审慎 […]

发布时间:2025年12月8日