这个“智能指导”帮助 LLM 在文本和代码之间切换
快速阅读: 据《麻省理工学院》最新报道,麻省理工团队开发CodeSteer,提升LLM处理计算任务准确率30%以上。研究将在国际机器学习大会发表,获谷歌等专家好评。
记者获悉,近期,麻省理工学院的研究团队开发了一款名为CodeSteer的智能助手,旨在指导大型语言模型(LLMs)在处理计算和算法任务时选择最佳方法。这款小型LLM能够自动生成一系列提示,逐步引导更大的LLM在文本和代码生成之间切换,直至正确回答查询。
研究表明,CodeSteer与大型LLM结合后,在符号任务上的准确率提高了30%以上,包括乘法运算、数独游戏和积木堆叠等任务。这使得较为简单的模型能够超越具有增强推理能力的高级模型,从而提升LLMs在复杂任务中的问题解决能力,例如为机器人生成路径或在国际供应链中安排运输。
麻省理工学院信息与决策系统实验室(LIDS)的航空与航天学副教授、首席研究员Chuchu Fan表示:“我们希望让LLMs选择合适的工具和方法,并利用他人的专业知识来增强自身能力。”作为研究的资深作者,Fan与LIDS研究生Yongchao Chen、AeroAstro研究生Yilun Hao、伊利诺伊大学厄巴纳-香槟分校研究生Yueying Liu及MIT-IBM Watson AI实验室的研究科学家Yang Zhang共同完成了这项研究,成果将在国际机器学习大会上发表。
研究团队还创建了一个名为SymBench的数据集,包含37个复杂符号任务,用于微调和测试CodeSteer。实验结果显示,CodeSteer在多种任务上的表现均优于现有方法,平均准确率从53.3%提升至86.4%。即使面对未曾见过的任务,CodeSteer也能保持较高的性能。
谷歌云AI的高级研究科学家Jinsung Yoon对此评价道:“这项研究提出了一种优雅的解决方案,通过简单的引导机制实现了显著的性能提升。”谷歌DeepMind的高级研究员Chi Wang则认为,这一成果展示了不同AI模型间智能协作的巨大潜力,有助于推动AI技术在实际应用场景中的发展。
这项研究得到了美国海军研究办公室和MIT-IBM Watson AI实验室的部分支持。
(以上内容均由Ai生成)