深寻R1成首个获同行评审的大规模AI语言模型
快速阅读: 中国AI公司DeepSeek发布R1模型,首获同行评审认可,成Hugging Face最热下载。R1强化学习创低成本高效率,训练费约29.4万美元,远低对手。
中国AI初创公司DeepSeek的R1模型在大型语言模型(LLM)领域树立了新标杆,成为首个接受同行评审的同类模型。据周三发表在《自然》杂志上的一项研究显示,该公司强调其创新方法独立于竞争对手的成果取得了成功。
R1于今年1月发布,旨在解决推理密集型任务,如数学和编程,定位为美国科技公司开发的类似工具的成本效益替代品。作为一个开放权重模型,R1可免费下载,目前已成为人工智能社区平台Hugging Face上最受欢迎的同类模型,下载量超过1090万次。
《自然》杂志指出,R1是首个经历正式同行评审的主要大型语言模型,此前发布的预印本详细介绍了DeepSeek如何改进标准LLM以应对复杂的推理挑战。“这是一个非常受欢迎的先例。”《自然》援引Hugging Face的机器学习工程师Lewis Tunstall的话说,“如果我们没有公开分享这一过程大部分内容的规范,评估这些系统是否存在风险将变得非常困难。”
补充材料首次披露了R1的训练成本,总计约为29.4万美元,远低于据报道竞争对手投入的数千万美元。此外,构建支持R1的基础模型大约花费了600万美元。
研究描述了DeepSeek采用一种自动化试错方法——纯粹的强化学习来创建R1。该模型通过正确答案获得奖励,而不仅仅是从人类选择的推理示例中学习。为了进一步提高效率,R1通过估计技术自我评估输出,即群体相对策略优化,而不是依赖单独的算法。
其他研究人员现在正试图将用于创建R1的方法应用于现有大型语言模型,以提高其推理能力,并将其扩展到数学和编码以外的领域,Tunstall表示。他补充说,R1“开启了一场革命”。
(以上内容均由Ai生成)