研究人员警告大型语言模型存在“灾难性的过度训练”

发布时间:2025年3月29日    来源:szf
研究人员警告大型语言模型存在“灾难性的过度训练”

快速阅读: 据《VentureBeat 公司》最新报道,研究发现,延长大型语言模型的预训练可能会导致性能下降,称为“灾难性过训练”。研究人员建议在预训练和微调之间找到平衡,以避免能力丧失。这项研究对模型设计和资源分配具有重要启示。

订阅我们的每日和每周通讯,获取行业领先的人工智能报道的最新动态和独家内容。了解更多一项新的学术研究提出了一种观点,挑战了大型语言模型(LLMs)开发中的一个核心假设,警告称更多的预训练数据并不总是会导致更好的模型。来自西方以及世界各地一些顶尖计算机科学机构的研究人员——包括卡内基梅隆大学、斯坦福大学、哈佛大学和普林斯顿大学——引入了“灾难性过训练”的概念,表明延长预训练实际上会使语言模型更难微调,最终降低其性能。这项题为《过训练的语言模型更难微调》的研究发布在arXiv上,由雅各布·米切尔·斯普林格领导,并与萨钦·戈亚尔、凯宇·文、塔尼什克·库马尔、向悦、萨德希卡·马拉迪、格雷厄姆·纽比格和阿迪蒂·拉古纳坦共同撰写。

回报递减法则

该研究聚焦于现代LLM开发中观察到的一个令人惊讶的趋势:尽管模型在不断扩大的数据池上进行预训练——这些数据要么是从网络上获得许可,要么是从网络上抓取的,并以一系列标记的形式呈现给LLM,即概念和思想的数值表示——但这种在预训练期间增加标记数量的做法可能会导致后来在特定任务微调时效果变差。研究团队进行了一系列实证评估和理论分析,以检查延长预训练对模型适应性的影响。其中一项关键发现集中在AI2开源的OLMo-1B模型上。研究人员比较了该模型的两个版本:一个是在2.3万亿个标记上预训练的,另一个是在3万亿个标记上预训练的。尽管后者训练的数据量增加了30%,但在指令微调后,后者的表现却更差。具体来说,3T标记模型在多个标准语言模型基准测试上的表现比其2.3T标记的对应版本低超过2%。在某些评估里,性能下降幅度达到了3%。研究人员指出,这种下降并非异常现象,而是一种他们称之为“灾难性过训练”的一致趋势。

理解敏感性和遗忘

论文将这种性能退化归因于所谓的“渐进敏感性”的系统性增加。随着模型经历延长的预训练,其参数对变化变得更加敏感。这种增加的脆弱性使它们在后续训练修改过程中更容易受到降级的影响,例如指令微调、多模态任务微调,甚至是简单的权重扰动。论文将这种性能退化归因于所谓的“渐进敏感性”的系统性增加。随着模型经历延长的预训练,其参数对变化变得更加敏感。研究人员提供了证据表明,在预训练达到某个转折点之后,任何修改——无论是像微调那样结构化的,还是像添加高斯噪声那样非结构化的——都会导致之前所学能力的更大丧失。论文将这种性能退化归因于所谓的“渐进敏感性”的系统性增加。随着模型经历延长的预训练,其参数对变化变得更加敏感。这种敏感性导致了“遗忘”,即随着新训练数据的加入,模型原有的优势会逐渐衰退。论文将这种性能退化归因于所谓的“渐进敏感性”的系统性增加。随着模型经历延长的预训练,其参数对变化变得更加敏感。

该研究确定了预训练中的一个转折点,在此之后,额外的训练会产生负收益,甚至对微调结果产生负面影响。对于OLMo-1B模型,这一阈值出现在约2.5万亿个标记处。论文将这种性能退化归因于所谓的“渐进敏感性”的系统性增加。随着模型经历延长的预训练,其参数对变化变得更加敏感。

丰富的证据

研究团队的分析涵盖了现实世界和受控实验环境。他们在不同的任务上测试了这一现象,包括使用Anthropic-HH和TULU等数据集进行指令微调,以及使用LLaVA框架进行多模态微调。结果始终显示,预训练超过一定标记预算的模型在微调后表现不佳。此外,研究人员利用线性网络构建了一个理论模型,以更好地理解为什么过度训练会导致敏感性增加。他们的分析证实,当预训练无限期进行且没有适当约束时,渐进敏感性和灾难性过训练在数学上是不可避免的。

最终结论?

模型提供者和训练者必须做出取舍。研究结果挑战了普遍认为更多预训练数据总是更好的假设。相反,论文建议一种微妙的权衡:虽然较长的预训练可以提高基础模型的能力,但它也增加了微调可能导致能力丧失的风险。在实践中,试图减轻这种影响的方法——例如调整微调学习率或添加正则化——可能会推迟灾难性过训练的发生,但如果不牺牲下游性能,则无法完全消除它。

研究结果挑战了普遍认为更多预训练数据总是更好的假设。相反,论文建议一种微妙的权衡:虽然较长的预训练可以提高基础模型的能力,但它也增加了微调可能导致能力丧失的风险。

因此,对于希望利用LLM改善业务流程和结果的企业来说,如果想通过微调开源模型来实现这一目标,这项研究的结果表明微调参数较低且训练材料较少的模型更有可能得到更可靠的生产模型。作者承认,还需进一步研究来了解何时以及如何发生灾难性过训练的因素。开放的问题包括预训练优化器、训练目标或数据分布是否会影响这一现象的严重程度。

对未来LLM和AI模型发展的启示

这项研究对组织和研究人员设计和训练大型语言模型具有重要意义。随着该领域继续追求更大、更强大的模型,这项研究强调了平衡预训练时长与后续适应性的必要性。此外,这些发现可能会影响模型开发者对资源分配的看法。与其仅仅专注于增加预训练数据量,开发者可能需要重新评估策略,以优化下游性能而不产生灾难性过训练的负面影响。

VB每日商业用例洞察

如果你想给老板留下深刻印象,VB每日有你所需的内幕信息。我们为你提供公司如何使用生成式人工智能的内幕信息,从监管变化到实际部署,以便你可以分享见解以获得最大投资回报率。立即订阅阅读隐私政策

感谢订阅。查看更多VB新闻通讯。出现错误。

(以上内容均由Ai生成)

你可能还想读

本周科技大事件:谷歌发布Pixel 10,Gamescom揭晓重磅游戏

本周科技大事件:谷歌发布Pixel 10,Gamescom揭晓重磅游戏

快速阅读: 谷歌推出Pixel 10手机及Pixel Watch 4,新增卫星紧急通讯、可更换电池和屏幕、抬手通话等功能,屏幕亮度达3000尼特,还将与斯蒂芬·库里合作推出AI健康和健身教练服务。 谷歌本周在“由谷歌制造”活动中推出了Pix […]

发布时间:2025年8月23日
SK海力士凭借HBM激增首次超越三星,领跑全球内存市场

SK海力士凭借HBM激增首次超越三星,领跑全球内存市场

快速阅读: 据《《韩国先驱报》》称,7月20日,SK海力士首登全球内存芯片市场榜首,受益于AI产品和HBM芯片领先地位。其季度利润达9.2万亿韩元,远超三星。 据韩联社报道,7月20日,韩国京畿道伊川,SK海力士首次登上全球内存芯片市场榜首 […]

发布时间:2025年8月1日
STAN 从谷歌、万代南梦宫和其他公司筹集了 850 万美元

STAN 从谷歌、万代南梦宫和其他公司筹集了 850 万美元

快速阅读: 据《印度教业务线》称,STAN获850万美元融资,由万代南梦宫等机构投资。计划拓展印度市场,加强AI功能与创作者工具。平台用户超2500万,专注移动端社交游戏。 记者获悉,8月1日,社交游戏平台STAN宣布完成850万美元的新一 […]

发布时间:2025年8月1日
“这改变了一切”:谷歌的人工智能模式迫使品牌重新考虑搜索策略

“这改变了一切”:谷歌的人工智能模式迫使品牌重新考虑搜索策略

快速阅读: 据《营销周》称,谷歌推出AI搜索模式,减少外部链接,提升对话式回答。品牌需调整策略,重视内容质量与品牌权威。此变化影响营销方式,竞争加剧。 据谷歌官方消息,7月29日,谷歌在英国推出了基于人工智能的搜索功能AI模式,此前该功能已 […]

发布时间:2025年8月1日
在 Android 上用更智能的应用程序替换 Google Assistant

在 Android 上用更智能的应用程序替换 Google Assistant

快速阅读: 据《电话竞技场》称,据报道,用户可从Google Play下载Meta AI应用,安装后需检查版本是否为230.0.0.36.164或更高。操作方法:进入设置,选择应用,查看Meta AI信息页底部的版本号。 据媒体报道,用户现 […]

发布时间:2025年8月1日
Xero 的英国董事总经理回击人工智能正在抢走会计工作的说法

Xero 的英国董事总经理回击人工智能正在抢走会计工作的说法

快速阅读: 据《UKTN(英国科技新闻)》称,英国科技媒体UKTN报道,Xero英国总经理凯特·海沃德表示,会计行业无需过度担忧AI自动化。尽管四大事务所裁员,但Xero仍持续投资AI技术,提升效率与服务质量。 据英国科技新闻网站UKTN报 […]

发布时间:2025年8月1日
Reddit 计划在搜索引擎市场大力推动人工智能与谷歌竞争:报告

Reddit 计划在搜索引擎市场大力推动人工智能与谷歌竞争:报告

快速阅读: 据《商业标准》称,Reddit CEO表示,公司正将平台转型为搜索引擎,整合AI功能,提升用户体验。Reddit Answers用户已超600万,计划全球推广。 据《The Verge》报道,7月11日,Reddit首席执行官史 […]

发布时间:2025年8月1日
Meta 超出预期,为“个人超级智能”做准备

Meta 超出预期,为“个人超级智能”做准备

快速阅读: 据《RCR无线》称,Meta二季度营收475.2亿美元,净利润183亿美元。CEO扎克伯格称将打造个人超级智能,但数据中心扩容遇挑战。公司计划2025年支出达1140-1180亿美元。 据媒体报道,7月25日,美国加州,社交媒体 […]

发布时间:2025年8月1日