MIT新方法让大模型计算效率翻倍
快速阅读: 最新消息显示,麻省理工学院研究团队推出“实例自适应缩放”技术,通过动态调整计算资源分配,在保持回答准确性的同时降低约50%能耗,并提升小型模型性能。
日前,麻省理工学院(MIT)研究团队发布一项提升大型语言模型运算效率的新技术。该方法名为“实例自适应缩放”,可根据问题复杂程度动态调整计算资源分配,显著降低能耗。相关论文已于11月初发表,并获得MIT-IBM沃森人工智能实验室、MIT-Amazon科学中心、MIT-Google计算创新项目及MathWorks的支持。
传统大型语言模型在推理过程中普遍采用固定的推理过程奖励模型(PRMs),导致面对不同难度问题时资源利用效率低下,且常高估回答成功率。对此,MIT研究人员重新设计PRMs,使其能依据具体问题自动调节推理轨迹数量。简单问题调用较少算力,复杂问题则获得更充分的推理支持。
研究指出,人类思维通常通过分解问题、逐步推理与持续修正完成任务,而语言模型同样可从类似机制中受益,在关键环节获得额外“思考”时间。实验结果显示,新方法在保持回答准确性与现有模型相当的前提下,将计算资源消耗减少约50%。此外,经校准后的PRMs还能有效提升小型语言模型的性能表现。
目前,该团队正计划将此技术拓展至代码生成、人工智能代理等应用场景,并探索其在强化学习等领域的潜在价值。
(以上内容均由Ai生成)