AI 的 3 万亿美元问题:龙猫会生还是死?
快速阅读: 《商业内幕》消息,“绒鼠”方法曾引领AI发展,但随着推理模型兴起及资源限制显现,其未来存疑。无论转向更高效模式还是继续扩展,AI行业的巨额投入和技术突破将塑造新格局。
**绒鼠的未来:AI巨兽的命运与变革**
在人工智能的世界里,“绒鼠”(Chinchilla)不仅是某种毛茸茸的小动物,更是一种构建超大规模AI模型的方法。这种方法的成败,牵动着高达3万亿美元的资金流动。
大约五年前,OpenAI的研究人员发现,通过结合更多的计算能力与海量数据,可以在更大的训练运行中创造出更优秀的AI模型。几年后,Google的研究团队进一步验证了这一策略的有效性——加入更多数据能带来更出色的结果。他们通过“绒鼠”模型证明了这一点。正是这些发现推动了大型语言模型的诞生,也支撑起像GPT-4这样的强大AI工具,例如ChatGPT。
然而,未来或许并非如此乐观。随着技术的发展,“绒鼠”策略——即依赖巨额计算能力和海量数据来打造更大、更持久的预训练运行——可能不再像过去一样奏效。那么,如果这种方法真的消失,会发生什么?
迄今为止,制造这些庞然大物需要巨大的前期投入。海量数据在被称为预训练的极度复杂且计算密集的过程中被整合。这引发了技术史上最大规模的基础设施升级浪潮。全球各大科技公司正疯狂建造耗能巨大的数据中心,配备英伟达GPU。与此同时,一种名为“推理”的新型AI模型正在崛起,它可能大幅减少对基础设施的需求。这意味着未来几年,可能不会有数万亿美元的资本支出。
巴克莱顶级科技分析师罗斯·桑德勒及其团队对此进行了深入分析。他们提出了两种可能的结果:一是延续当前的“绒鼠”模式,即大规模计算和数据密集型预训练;二是转向更节省资源的“停滞”替代方案。在资本支出方面,两者间的差距令人震惊,涉及金额可能高达3万亿美元甚至更多。
原因在于,“推理”AI模型正在兴起,比如OpenAI的o1和o3系列、DeepSeek的R1以及Google的Gemini 2.0闪电思考。这些新模型采用了一种名为测试时间或推理时间计算的方法,将查询分解为更小的任务,并转化为模型处理的新提示。巴克莱分析师指出,推理模型通常无需进行大规模、高强度、长时间的预训练即可创建,尽管它们的响应时间可能会稍长,但输出却可能更为精准,运行成本也更低。
此外,公司还采用了其他技术来减少所需计算基础设施的数量。例如,专家混合(MoE)方法就是其中之一。在这种方法中,多个较小的“专家”模型专注于特定任务或主题领域,与现有的大型AI模型协同工作以回答问题并完成任务。这意味着只需激活部分AI模型,从而显著降低计算需求。
然而,“绒鼠”方法在过去五年间一直行之有效,这也是许多AI供应链公司股价飙升的重要原因之一。巴克莱分析师质疑这一范式能否持续,因为随着成本增加,性能提升的空间可能会逐渐缩小。他们写道:“为了获得非常微不足道的增量性能,在下一个基础模型上花费100亿美元进行预训练的想法很可能会改变。”
许多人认为,用于训练AI模型的数据资源可能已接近枯竭——也许没有足够的高质量信息来满足这只贪婪的“绒鼠”的胃口。因此,顶尖AI公司可能会在某个节点停止扩展这一过程。例如,OpenAI可能会开发出下一代巨型模型GPT-5,但可能不会超过那个界限。
AI行业已经开始尝试使用合成训练数据,这些数据通常由现有模型生成。一些研究人员相信,模型帮助创建新、更好模型的反馈循环将推动技术迈向新的高度。“绒鼠”或许能够依靠自身维持生存。虽然听起来有些残酷,但这意味着科技公司在未来几年仍将大力投入AI领域。
巴克莱分析师总结道:“如果AI行业在合成数据和递归自我改进方面取得突破,那么我们将重新走上‘绒鼠’的扩展路径,计算需求将继续快速增长。”虽然目前尚不明朗,但这无疑是我们必须考虑的一种可能性。
虽然听起来有些残酷,但这意味着科技公司在未来几年仍将大力投入AI领域。
—
**总结:**
从“绒鼠”到推理模型,从大规模预训练到专家混合方法,AI领域的每一次转变都标志着技术和经济格局的巨大变化。无论未来走向何方,这场关于AI未来的较量注定精彩纷呈。
(以上内容均由Ai生成)