Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI

发布时间:2025年11月3日    来源:szf

编辑:Aeneas好困
【新智元导读】Ilya终于承认,自己关于Scaling的说法错了!现在训练模型已经不是“越大越好”,而是找出Scaling的对象究竟应该是什么。他自曝,SSI在用全新方法扩展预训练。而各方巨头改变训练范式后,英伟达GPU的垄断地位或许也要打破了。
昨天,TheInformation爆料,传统的大模型ScalingLaw已经撞墙,OpenAI下一代旗舰Orion遭遇瓶颈。
就在刚刚,路透社也发文表示,由于当前方法受到限制,OpenAI和其他公司正在寻求通向更智能AI的新途径。
有趣的是,昨天拱火的TheInformation,今天又急忙发出一篇文章来灭火。
他们强调,昨天的文章只是在说改进大模型必须找到新方法,并不是说ScalingLaw已经终结。
但一个不争的事实就是:硅谷几大主要AI实验室正在陷入困境。训练这些大规模的LLM动辄需要花费数千美元,但复杂系统还经常崩溃。往往需要数月时间,才知道模型能否按预期工作。
比起GPT-4o,Orion几乎没有任何改进;谷歌的Gemini2.0,被曝也存在同样问题;Anthropic据传也已暂停Opus3.5模型的工作。
据悉,谷歌正准备在12月推测出最新的Gemini2.0,它可能无法实现DeepMind创始人DemisHassabis团队预期的显著性能改进,但会有引入一些有趣的新功能
Anthropic首席执行官DarioAmodei表示,“我们的目标是改变曲线,然后在某个时候成为Opus3.5”
而离职创业的OpenAI元老则IlyaSutskever则表示,现在重要的是“扩大正确的规模”。
“2010年代是scaling的时代,现在,我们再次回到了奇迹和发现的时代。每个人都在寻找下一个奇迹。”
对经营着自己的AI实验室SSI的Ilya来说,这是一个很大的改变。
曾经在推动OpenAI的GPT模型时,他的准则是“越大越好”。但在SSI的最近一轮融资中,Ilya开始希望尝试一种与OpenAI不同的Scaling方法。
ScalingLaw大家都说得够多了。但有一个问题,却被每个人都忽略了——我们说scaling的时候,究竟在scaling什么?
如今,Ilya抛出了这个振聋发聩的疑问。
Scaling正确的东西,比以往任何时候都更重要
毕竟,超大规模语言模型的ROI实在太低了。
虽然在GPT-4发布后,各大AI实验室的研究人员都竞相追赶,发布了超过GPT-4的大模型,但他们更多的感觉是失望。
因为要同时运行数百个芯片,这种超大参数模型的训练可能要花费数千万美元,系统太复杂还可能会出现硬件故障。但只有经过数月,等到运行结束后,研究人员才能知道模型的最终性能。
另一个问题,就是LLM吞噬了大量数据,而世界上易于获取的数据,几乎已经被耗尽了!
同时,由于过程中需要大量能源,电力短缺也成为训练AI的严重阻碍。
论文题目:“TheUnseenAIDisruptionsforPowerGrids:LLM-InducedTransients”
面对这种种现状,Ilya最近在路透社的采访中表示,扩展训练的结果,已经趋于平稳。
也就是说,用大量未标记数据来理解语言模式和结构的训练阶段到头了。
以前,Ilya是暴力scaling的早期倡导者之一,那时有一种想法广泛认为,通过预训练中使用更多的数据和算力,能让AI模型的性能暴涨。
OpenAI团队2020年提交的arXiv论文中最先提出这一概念:LLM性能与计算量、参数量、数据量三者呈现幂律关系
的确,沿着这条路线,最终ChatGPT诞生了。
ChatGPT发布后,从AI热潮中受益颇多的科技公司都公开声称,这种通过增加数据和算力来“scaleup”的方法,能显著改善模型性能。
可是现在,ScalingLaw已经碰壁了!越来越多的AI科学家,对于这种“越大越好”(biggerisbetter)的哲学产生了质疑。
2010年代属于Scaling,但大模型要继续发展下去,需要一个新的奇迹。
Ilya的SSI团队是否找到了呢?
对此,Ilya拒绝透露,只是表示,SSI正在研究一种全新的替代方法,来扩展预训练。
同时,OpenAI仿佛也找到了新方法——通过开发使用更类人思维的算法训练技术,或许就能克服在追求更大规模LLM过程中遇到的意外延迟和挑战。
已经有十几位AI科学家、研究人员和投资者告诉路透社,他们认为正是这些技术,推动了OpenAI最近发布的o1模型。
而它们,可能会重塑AI竞赛的格局,让AI公司们不再对能源和芯片资源产生无限制的需求。
有没有这么一种新方法,让AI模型既能摆脱对数据的依赖,又不再需要动辄吞噬整个国家乃至全球的电力?
为了克服这些挑战,研究人员正在探索一项“测试时计算”的技术。
上图即是OpenAI解释o1的博文,x轴标记为“训练时计算”和“测试时计算”。
左图是OpenAI发现的ScalingLaw,意味着在模型上投入更多训练时间(GPU周期)时,我们可以获得更好的结果。
右图则暗示了我们尚未触及的一套全新的ScalingLaw。“测试时计算”意味着,给模型更多的“思考时间”(GPU周期)时,它会思考出更好的结果。
测试时计算技术,能在推理阶段(模型被使用时)就将模型增强,比如,模型可以实时生成和评估多种可能性,而不是理解选择单一答案。最终,模型就可以选择出最佳路径。
这种方法可以允许模型将更多的处理能力,用于数学、编码问题等具有挑战性的任务,或者需要类人推理和决策的复杂操作。
传统的ScalingLaw,专注于用更长时间训练大模型,但如今o1系列模型scaling有了两个维度——训练时间和测试(推理)时间
早在上个月的旧金山TEDAI会议上,曾参与o1开发的OpenAI研究员NoamBrown就提出——
o1模型以前曾被称为“Q*”和“Strawberry”。现在,它能够以多步骤方法思考问题,类似于人类推理。
现在,模型不再受限于预训练阶段,还可以通过增加推理计算资源,来提升表现
而且,它还涉及了来自博士和行业专家策划的数据和反馈。
o1系列的秘密武器,是在GPT-4等基础模型上进行的另一套训练,OpenAI还计划,将这种技术应用于更多更大的基础模型。
OpenAI的首席产品官KevinWell在十月的一次科技会议表示——
通过思维链提示,o1模型可以经过训练生成长长的输出,并通过答案进行推理
OpenAI说要领先三步,其他顶尖AI实验室岂甘落后?
据知情人士透露,来自Anthropic、xAI和谷歌DeepMind的研究人员,也已经奋力开卷了!
比如Meta最近提出了“思维偏好优化”TPO,这种方法旨在教会LLM在回答一般任务(而不仅仅是数学或逻辑问题)之前“思考”,而不需要特殊的训练数据。
论文地址:https://arxiv.org/pdf/2410.10630
而谷歌也在开发一种新模型,同样使用CoT方法解决多步骤问题、生成多个答案,评估后选择最佳答案。
这个过程同样可以通过在推理中使用更多算力来增强,而非仅仅增加训练数据和算力,这就为扩展AI模型开辟了一条新道路。
论文地址:https://arxiv.org/pdf/2408.03314
这会导致什么后果?
很有可能,对英伟达GPU巨大需求主导的AI硬件竞争格局,将从此改变。
这是因为,通过增加训练时间和测试(推理)时间,可能会获得更好的结果,模型就不再需要那么大的参数。
而训练和运行较小模型会更便宜,因此,在给定固定计算量的情况下,我们可能会突然从小模型中获得更多收益。
突然之间,模型参数、训练时间和测试时间计算之间的关系变得复杂了,也就让我们看到了下一代GPU的可能。
比如Groq这样的公司,恰巧就在为这类任务制造专门的芯片。
今年2月登场的世界最快大模型Groq,每秒500token直接破了纪录,自研的LPU在LLM任务上比英伟达GPU性能快了10倍。
红杉资本和A16z在内的著名风投机构,如今已经投入了数十亿美元,资助OpenAI、xAI等多家AI实验室的开发。
他们不可能不注意到最近圈内盛传的ScalingLaw碰壁事件,而重新考虑自己的昂贵投资是否会打水漂。
红杉资本合伙人SonyaHuang表示,这种转变,将使我们从大规模预训练集群转向推理云,即分布式的、基于云的推理服务器。
大模型热以来,对英伟达尖端AI芯片的需求,已经让它崛起为全球最有价值的公司,并且市值超越了苹果。
今年以来,英伟达股价了约186%,而苹果仅上涨了17%
虽然在训练芯片的市场,英伟达已经占据主导地位,但它在推理市场,可能还会面临更多竞争。
而o1模型背后技术,意味着对推理芯片的需求也会随着增加。
“我们现在发现了第二个ScalingLaw,这是在推理阶段的ScalingLaw……所有这些因素导致对Blackwell的需求非常高。”
在英伟达GTC大会上,黄仁勋也讲到,如果要训练一个1.8万亿参数量的GPT模型,需要8000张H100GPU,消耗15兆瓦的电力,连续跑上90天
随着ScalingLaw碰壁,各大公司纷纷开启新路线,英伟达是否还会继续坐火箭般的辉煌呢?
再见,GPT。你好,推理“o”
TheInformation今天的解释文章,标题意味深长:《再见,GPT。你好,推理“o”》。
文章内容是这样的。
月初,一位Reddit用户曾在QA种问道,OpenAI的下一代旗舰大语言模型何时发布。
对此,Altman回答说:“今年晚些时候,我们会发布一些非常不错的产品,但并不会叫做GPT-5。”随后他又补充道,有限的计算资源意味着很难同时推出过多的项目。
当时我们并未多想。
但如今,我们更能理解Altman的评论了——以及他为何专注于推出o系列推理模型而非另一版本的GPT。
所谓GPT,即生成式预训练Transformer模型,是ChatGPT和大多数其他生成式人工智能产品的基石。
原因正如之前报道的那样,GPT的改进速度正在放缓。
2023年初登场的上一代旗舰级模型GPT-4,凭借着巨大的性能提升在科技行业引发了轰动。
Orion比GPT-4更好,但其质量提升与GPT-3和GPT-4之间的差距相比略显逊色。甚至,可能会让OpenAI放弃自2018年推出GPT-1起使用的“GPT”命名惯例。
因此,当Altman写道“o1及其后续版本”时,可能意味着Orion将与推理融合并被命名为“o2”。
让我们回到GPT发展放缓这个问题上。
传统的ScalingLaw不仅仅意味着在大语言模型训练过程中需要更多的数据和计算能力才能获得更好的结果。OpenAI的研究人员还做了各种其他有趣的事情,才使得GPT-4比GPT-3有了大幅提升。比如,引入被称为模型稀疏性的概念。
随着推理范式的出现,预训练改进的放缓变可以得到弥补——从本质上讲,它可能代表了一种新的ScalingLaw。
OpenAI一再表示,推理模型的性能在回答问题前有更多时间思考时会变得更好,这被称为对数线性计算扩展。
那么,这些变化是否意味着OpenAI的1000亿美元超级计算集群的梦想正在消退呢?对于这个问题,可以肯定的是,所有主流的AI开发者都在全速推进极其昂贵的集群建设。
一方面是,大型集群上可以更好地在预训练后改进这些模型、在后训练阶段处理强化学习以及更新或微调模型。
另一方面是,即便预训练模型的改进速度放缓,但只要自己能训出比竞争对手略好的模型,就值得增加的数据中心投入。毕竟,LLM越好,将推理模型融入模型后获得的结果就越好。
最后,如果GPT的发展没有加速,是不是就意味着末日论者错了——AI不会进入所谓的递归自我改进循环,在这个循环中,AI会一次又一次地找出如何制造下一个更好版本的自己(然后也许会征服我们所有人)?
对此,MarcAndreessen认为,这种明显的平台期意味着这样的恐惧目前看来是没有根据的。
参考资料

你可能还想读

Default Image

AI眼镜厂商Solos发布两款新智能眼镜,售价249美元起

36氪获悉,AI眼镜厂商Solos在香港举办的2025智能眼镜研讨会上官宣了新一代智能眼镜产品。此次新品拓展了其AirGo产品线,带来了两款新产品:聚焦音频交互的AirGo™ A5和具备视频功能的AI眼镜AirGo™ V2。Solos Ai […]

发布时间:2025年11月3日
Default Image

大模型为深度伪造带来土壤,业界呼吁跨学科联合攻坚鉴伪技术

·鉴伪技术开发需要跨学科合作,当前的鉴伪技术以软件算法为主,未来将走向软硬一体。大模型兴起为深度伪造带来土壤,业界呼吁跨学科联合攻坚鉴伪技术。在大模型时代,人工智能合成语音与真实语音之间的界限变得越发模糊,提升与之匹配的识别技术迫在眉睫。7 […]

发布时间:2025年11月3日
Default Image

小米AI眼镜发布,支持“看一下支付”,1999元起

6月26日,小米重磅发布“面向下一代的个人智能设备”——小米AI眼镜。全新小米AI眼镜具备可支付功能,内置支付宝“看一下支付”,方便用户在双手忙碌或不便使用手机时,通过眼镜扫码支付,安全又便捷。据悉,小米AI眼镜现已开售,1999元起。小米 […]

发布时间:2025年11月3日
Default Image

小米AI眼镜发布,支持“看一下支付”,1999元起

6月26日,小米重磅发布“面向下一代的个人智能设备”——小米AI眼镜。全新小米AI眼镜具备可支付功能,内置支付宝“看一下支付”,方便用户在双手忙碌或不便使用手机时,通过眼镜扫码支付,安全又便捷。据悉,小米AI眼镜现已开售,1999元起。小米 […]

发布时间:2025年11月3日
Default Image

小米首款AI眼镜在京东开售 1999元起晒单享3期免息

6月26日,小米正式推出其首款AI眼镜,定位为“面向下个时代的个人智能设备”,目前已在京东同步上架开售,售价1999元起,叠加国补优惠后到手价低至1699元。京东还为该款AI眼镜推出限时福利,京东购机用户可参与抽奖,有4台免单机会,晒单用户 […]

发布时间:2025年11月3日
Default Image

6月国产手机各价位段销量冠军出炉:华为中高端齐开花

【CNMO科技消息】近日,有数码博主曝光了2025年6月国产手机各价位段销量冠军机型。CNMO注意到,华为在中高端市场全面领先,实现“齐开花”的强势表现;OPPO Reno14则包揽全价位段和部分中端市场冠军;vivo则在特定区间占据优势。 […]

发布时间:2025年11月3日
Default Image

华为发布Pura80系列手机 售价6499元起

观点网讯:6月11日,华为召开Pura80系列及全场景新品发布会,发布了Pura80系列手机、华为WATCH5等产品。据悉,华为Pura80系列包括Pura80,Pura80 Pro及Pro+,Pura80 Ultra四款产品。发布会上,华 […]

发布时间:2025年11月3日
Default Image

2699元起 华为nova10系列今日发布_TechWeb

【TechWeb】2022年7月4日,华为正式发布华为nova10系列新品手机。华为nova10系列将于2022年7月8日10:08正式开售,共有“10号色”“曜金黑” “普罗旺斯““绮境森林”四种颜色提供选择。其中华为nova10 128 […]

发布时间:2025年11月3日