AI

人工智能研究超出训练范围,引发伦理与安全讨论

发布时间:2025年8月20日    来源:szf
人工智能研究超出训练范围,引发伦理与安全讨论

快速阅读: 亚利桑那州立大学研究指出,大型语言模型中的“思维链”推理可能是模式匹配而非真实智能,建议开发者谨慎使用并采取严格测试策略。

亚利桑那州立大学的研究人员发表了一项新研究,指出大型语言模型(LLM)中备受赞誉的“思维链”(CoT)推理可能只是“脆弱的幻象”,而非真正的智能。这项研究基于越来越多质疑LLM推理深度的工作,但采用独特的“数据分布”视角测试CoT系统性失效的原因。

研究人员不仅批评了现有问题,还提供了实际指导,帮助开发人员在构建LLM驱动的应用时考虑这些限制,包括测试策略和微调的作用。

CoT提示要求LLM“逐步思考”,在复杂任务上表现出色,使人们认为模型能够进行类似人类的推断过程。然而,仔细审查往往揭示出逻辑不一致,挑战了这种观点。多项研究表明,LLM通常依赖表面语义和线索,而非逻辑程序。模型通过重复训练期间见过的模式生成看似合理的逻辑,但在偏离熟悉模板或引入无关信息的任务上经常失败。

尽管有这些观察结果,新研究的作者认为,“系统理解CoT推理为何以及何时失败仍然是一个谜”,他们的研究旨在解决这个问题。此前的研究已经表明,LLM难以推广其推理能力。论文指出,“理论和实验证据显示,当测试输入与训练数据具有潜在结构相似性时,CoT推广良好;否则,性能急剧下降。”

ASU研究人员提出了一种新的视角来看待这个问题:CoT不是推理行为,而是一种复杂的模式匹配,从根本上受制于其训练数据中的统计模式。他们认为,“CoT的成功并非源于模型的内在推理能力,而是其有条件地推广到与训练样本结构相似的分布外(OOD)测试案例的能力。”换句话说,LLM擅长将旧模式应用于看起来相似的新数据,但不擅长解决真正新颖的问题。

为了验证这一假设,他们从三个维度分析了CoT的能力:“任务泛化”测试模型是否能将学到的推理过程应用于新类型的任务;“长度泛化”测试模型是否能处理显著长于或短于训练数据的推理链;“格式泛化”评估模型对提示措辞或结构的微小变化的敏感度。

研究人员开发了一个名为DataAlchemy的框架,在受控环境中从头开始训练较小的LLM,以精确测量超出训练数据时性能的下降情况。

“数据分布视角和受控环境是我们试图传达的核心内容,”ASU博士生、论文合著者郑成帅告诉VentureBeat,“我们希望创造一个空间,让公众、研究人员和开发者自由探索和探究LLM的本质,推动人类知识的边界。”

根据研究结果,研究人员得出结论,CoT推理是“一种复杂的结构化模式匹配,从根本上受制于训练期间看到的数据分布。”当测试稍微超出这个分布时,性能就会崩溃。看似结构化的推理更像是一个幻象,“源自训练数据中的记忆或插值模式,而非逻辑推理。”

研究人员发现,模型在三个维度上表现不佳。面对新任务时,模型无法泛化,而是复制了训练过程中遇到的最接近的模式。在处理不同长度的推理链时,模型也遇到困难,常常试图人为地增加或减少步骤以匹配训练样本的长度。此外,模型的表现对提示中的表面变化非常敏感,特别是核心元素和指令的变化。

有趣的是,研究人员发现这些失败可以迅速解决。通过监督微调(SFT),模型在少量新数据上的性能迅速提升。然而,这种快速修复进一步支持了模式匹配理论,表明模型并未学会更抽象的推理,而是记住了新的模式来克服特定的弱点。

对于企业应用,研究人员直接警告从业者,指出“将链式思维(CoT)作为推理任务的即插即用解决方案存在风险,并且不应将CoT风格的输出等同于人类思考。”他们为开发使用大型语言模型(LLM)的应用程序的开发者提供了三条关键建议:

1. 防止过度依赖和虚假自信。CoT不应被视为高风险领域(如金融或法律分析)中可靠的推理模块。LLM可能产生“流利的胡言乱语”(看似合理但逻辑上有缺陷的推理),比直接错误的答案更具欺骗性。研究者强调,“领域专家的充分审计是不可或缺的。”赵博士表示:“科学的进步应以人类为中心——机器可以辅助,但发现仍然依赖于人类和好奇心。”

2. 重视分布外(OOD)测试。标准验证方法(测试数据与训练数据相似)不足以衡量真正的鲁棒性。开发者必须实施严格的测试,系统地探查任务、长度和格式变化中的失败点。

3. 认识到微调是补丁而非万能药。虽然监督微调(SFT)可以快速“修补”模型在特定新数据分布上的性能,但它不会实现真正的泛化。它只是略微扩大了模型的“分布内”范围。依赖SFT来解决每个OOD失败是不可持续的策略,未能解决模型缺乏抽象推理的核心问题。

尽管CoT不是人类认知的形式,但这一局限性可以管理。大多数企业应用涉及相对狭窄和可预测的任务集。论文的发现为企业确保这些领域的可靠性提供了一个蓝图。开发者可以构建严格的评估套件,系统地测试模型在特定任务、长度和格式变化下的性能。这使他们能够绘制出模型“分布内”舒适区的边界,并确定其与具体需求的契合点。

这种针对性测试将微调从被动的“补丁”转变为积极的对齐策略。当评估揭示出特定弱点时,开发者可以创建小规模、有针对性的SFT数据集来解决这些问题。与其追求广泛的泛化推理,这种方法利用SFT精确地确保模型的模式匹配能力与特定企业任务的需求相匹配。最终,这项研究为超越希望,工程化LLM应用以实现可预测的成功提供了一个实用的视角。

(以上内容均由Ai生成)

你可能还想读

Coinbase新协议让AI自主完成加密支付

Coinbase新协议让AI自主完成加密支付

快速阅读: Coinbase推出MCP工具,基于x402协议,使AI代理能持有钱包、发送稳定币支付,实现机器间加密货币转账,内置限额和合规检查确保安全。 Coinbase新推出的MCP工具允许人工智能代理持有钱包并发送稳定币支付。基于Coi […]

发布时间:2025年10月24日
硅实验室推出Simplicity Ecosystem,简化物联网开发流程

硅实验室推出Simplicity Ecosystem,简化物联网开发流程

快速阅读: 硅实验室推出Simplicity生态系统,旨在简化嵌入式物联网开发,包括Simplicity Studio 6和2026年推出的Simplicity AI SDK,提供模块化工具和AI辅助设计,支持多种物联网标准。 硅实验室推出 […]

发布时间:2025年10月24日
老旧印刷厂变身高效AI数据中心

老旧印刷厂变身高效AI数据中心

快速阅读: 帕特莫斯利用旧印刷厂的液体设施,支持每机柜50至140千瓦电力需求,采用多环路液体冷却系统,确保高效散热与硬件保护,接入堪萨斯城区域冷水供应,实现环保节能。 他说道:“我认为,棕地是一种极具创意的方法来应对我们当前面临的最大问题 […]

发布时间:2025年10月24日
AI安全集成:Snyk Evo引领企业智能防护新纪元

AI安全集成:Snyk Evo引领企业智能防护新纪元

快速阅读: 数字系统的快速发展要求安全架构更加智能、灵活。Snyk Evo通过自主编排、AI感知和主动保护,重新定义AI应用安全,减少暴露风险,简化开发流程。 数字系统的快速发展迫使安全架构必须更快地思考、更智能地行动并即时适应。随着各组织 […]

发布时间:2025年10月24日
黄仁勋:美光对下一代AI突破至关重要

黄仁勋:美光对下一代AI突破至关重要

快速阅读: 英伟达与美光合作,推动AI基础设施发展。美光HBM3E内存助力英伟达GPU,提升AI性能。黄仁勋称,高性能内存对AI应用至关重要,双方合作开启消费级和企业级AI新水平。 在全球领导层就人工智能可持续发展进行辩论之际,各公司纷纷投 […]

发布时间:2025年10月24日
苹果COO确认休斯顿制造AI服务器提前发货

苹果COO确认休斯顿制造AI服务器提前发货

快速阅读: 苹果首席运营官萨比赫·汗确认,因特朗普总统推动,苹果从休斯顿新工厂提前出货美国制造的人工智能服务器,此举响应总统号召,促进本国就业。 苹果首席运营官萨比赫·汗在接受福克斯新闻网数字版采访时确认,公司正从其位于休斯顿的新工厂提前出 […]

发布时间:2025年10月24日
微软Edge浏览器增强Copilot模式,挑战AI浏览器市场

微软Edge浏览器增强Copilot模式,挑战AI浏览器市场

快速阅读: 微软Edge浏览器推出Copilot模式,提供AI代理功能,包括Actions和Journeys,支持语音操作完成任务及记录浏览历史,帮助用户从中断处继续。 Edge 浏览器推出 Copilot 模式,带来更强大的代理 AI 功 […]

发布时间:2025年10月24日
阿联酋总统重组人工智能与先进技术委员会

阿联酋总统重组人工智能与先进技术委员会

快速阅读: 阿布扎比总统重组人工智能与先进技术委员会,由谢赫·塔农任主席,旨在加速AI政策实施与技术发展,推动《阿布扎比数字政府战略2025-2027》实现。 阿布扎比,10月23日(WAM/ANI):阿布扎比酋长国总统谢赫·穆罕默德·本· […]

发布时间:2025年10月24日