深寻R1成首个获同行评审的大规模语言模型
快速阅读: 中国AI初创DeepSeek的R1模型成首个正式同行评审的大型语言模型,专为强化推理设计,免费下载,已超1090万次下载,训练成本约29.4万美元。
中国人工智能初创公司DeepSeek的R1模型在大型语言模型(LLM)领域树立了新的标杆,成为首个接受正式同行评审的同类模型。这一成就独立于竞争对手的成果,据周三发表在《自然》杂志上的研究显示,该公司的创新方法取得了成功。
R1于今年1月推出,专为强化推理密集型任务而设计,涵盖数学和编程等领域,定位为美国科技公司类似工具的高性价比替代品。
作为一款开放权重模型,R1可免费下载,目前已成为人工智能社区平台Hugging Face上最受欢迎的同类模型,累计下载量超过1090万次。
《自然》杂志指出,R1是首个经历正式同行评审的主要大型语言模型,此前发布的预印本详细介绍了DeepSeek如何改进标准LLM以应对复杂的推理挑战。
“这是一个非常受欢迎的先例。”《自然》援引Hugging Face的机器学习工程师刘易斯·图恩斯特尔的话说,“如果我们不公开分享这一过程的大部分内容,将很难评估这些系统是否构成风险。”
首次披露的补充材料显示,R1的训练成本总计约为29.4万美元,远低于据报道竞争对手花费的数千万美元。此外,构建支撑R1的基础模型大约投资了600万美元。
研究描述了DeepSeek在创建R1时采用的一种自动化试错方法——纯粹的强化学习。该模型通过正确答案获得奖励,而不仅仅是从人类选择的推理示例中学习。
为了进一步提高效率,R1通过一种称为群体相对策略优化的技术自我评估其输出,而不是依赖单独的算法。
图恩斯特尔表示,其他研究人员现在正尝试将用于创建R1的方法应用于改进现有LLM的类推理能力,并将其扩展到数学和编码以外的领域。“在这方面,”他补充道,“R1开启了一场革命。”
(以上内容均由Ai生成)