测试时扩展如何解锁小型语言模型中的隐藏推理能力(并使它们的性能优于 LLM)
快速阅读: 《VentureBeat 公司》消息,上海人工智能实验室的研究表明,小型语言模型(SLM)在推理任务中可超越大型语言模型(LLM)。测试时扩展(TTS)策略能提升模型性能,如“最佳N选一”和“多样化验证树搜索”。研究发现,适当TTS策略的选择依赖于模型参数与问题难度。例如,Llama-3.2-3B模型在特定条件下优于Llama-3.1-405B模型。该研究还指出,SLM在减少计算资源的情况下,可在数学基准测试中超越更大模型。
订阅我们的每日和每周通讯,获取业内领先的人工智能最新资讯和独家内容。详情请见。上海人工智能实验室的新研究显示,小型语言模型(SLM)在推理任务中能够胜过领先的大型语言模型(LLM)。SLM在复杂推理任务中的应用非常有价值,因为企业正寻求在不同环境和应用场景中利用这些新模型的新方法。测试时扩展(TTS)是指在推理过程中为LLM提供额外计算资源,以提升其在各种任务中的性能。另一种方法是“外部TTS”,即通过外部辅助来增强模型性能。最简单的设置是“最佳N选一”,即策略模型生成多个答案,PRM从中选出一个或多个最佳答案作为最终回应。在“多样化验证树搜索”(DVTS)中,模型生成多个答案分支,形成更丰富的候选回应集合,再综合成最终答案。选择适当的TTS策略需要考虑多个因素。他们的研究发现,效率主要取决于策略模型和PRM模型。对于参数少于70亿的小策略模型,在简单问题上,“最佳N选一”表现更好,而在复杂问题上束搜索更为有效。对于参数超过720亿的大策略模型,“最佳N选一”在所有难度级别上都是最优方法。根据这些发现,开发者可以制定计算最优的TTS策略,结合策略模型、PRM和问题难度,最大化利用计算资源来解决推理问题。例如,研究人员发现,采用计算最优TTS策略的Llama-3.2-3B模型在MATH-500和AIME24两个复杂的数学基准测试中表现优于Llama-3.1-405B模型。在其他实验中,他们发现Qwen2.5模型(拥有5亿参数)在采用正确计算最优TTS策略的情况下优于GPT-4o。当考虑训练和推理的计算预算时,研究结果显示,采用计算最优的扩展策略,SLM可以在FLOPS减少100至1000倍的情况下超越更大的模型。研究人员指出,“这表明TTS的效果直接取决于策略模型的推理能力。”尽管这项研究主要集中在数学基准上,但研究人员计划将其研究扩展到其他推理任务,如编程和化学。如果你想给你的老板留下深刻印象,VB每日为你提供帮助。我们为你提供关于公司如何使用生成式人工智能的内部信息,涵盖从监管变化到实际部署,助你分享见解以实现最大回报。
(以上内容均由Ai生成)