深寻R1模型训练成本仅29.4万美元,挑战美国AI巨头
快速阅读: DeepSeek公布R1模型训练成本为29.4万美元,远低于美国对手,引发AI竞赛地位讨论。使用512个Nvidia H800芯片,初期曾用A100芯片。
中国人工智能开发商DeepSeek表示,在训练其R1模型上花费了29.4万美元,远低于美国竞争对手所报告的数字。这一论文可能会重新引发关于北京在人工智能开发竞赛中地位的讨论。
这家位于杭州的公司罕见地更新了信息——这是它首次公布R1的培训成本估计值。该信息出现在周三发表于学术期刊《自然》的一篇经过同行评审的文章中。
DeepSeek今年1月发布了低成本AI系统的消息,引发了全球投资者抛售科技股,他们担心这些新模型可能威胁到包括Nvidia在内的AI领导者的主导地位。
此后,该公司及其创始人梁文峰基本上从公众视野中消失,除了推出一些新的产品更新。
《自然》文章中,梁文峰被列为共同作者之一,文中提到DeepSeek的以推理为中心的R1模型的训练成本为29.4万美元,使用了512个Nvidia H800芯片。1月份发布的文章早期版本未包含此信息。
用于支持AI聊天机器人的大型语言模型的训练成本,是指运行强大的芯片集群数周甚至数月来处理大量文本和代码所产生的费用。
美国AI巨头OpenAI的首席执行官Sam Altman在2023年表示,基础模型的训练成本“远远超过”1亿美元——尽管他的公司没有为其任何发布提供详细的数字。
DeepSeek关于其开发成本和技术使用的某些声明受到了美国公司和官员的质疑。
Nvidia为满足中国市场需求设计的H800芯片,是在美国2022年10月禁止向中国出口更强大的H100和A100 AI芯片之后推出的。
美国官员6月告诉路透社,DeepSeek能够获得“大量”H100芯片,这些芯片是在美国实施出口管制后采购的。Nvidia当时对路透社表示,DeepSeek使用的是合法获取的H800芯片,而非H100芯片。
在随《自然》文章附带的补充信息文件中,公司首次承认拥有A100芯片,并表示在开发初期阶段使用了这些芯片。
“关于DeepSeek-R1的研究,我们使用A100 GPU进行了小规模模型的实验准备。”研究人员写道。在此初始阶段后,R1在512个H800芯片集群上总共训练了80小时。
路透社此前报道,DeepSeek能够吸引中国最优秀的人才,部分原因是它是少数几家运营A100超级计算集群的国内公司之一。
模型蒸馏技术
DeepSeek首次回应——尽管不是直接回应——白宫高级顾问和其他美国AI人士1月份提出的指责,即它有意将OpenAI的模型“蒸馏”到自己的模型中。
DeepSeek一直捍卫蒸馏技术,认为这可以提高模型性能,同时大大降低了训练和运行的成本,使得更多人能够访问资源密集型的AI技术。
蒸馏技术指的是一个AI系统通过学习另一个AI系统,从而继承前一个模型在时间和计算能力上的投资成果,而无需承担相应的成本。
DeepSeek在今年1月表示,它使用了Meta的开源Llama AI模型来创建一些自己模型的蒸馏版本。
在《自然》杂志中,DeepSeek称其V3模型的训练数据依赖于爬取的网页,其中包含“大量由OpenAI模型生成的答案,这可能导致基础模型间接地从其他强大模型中获取知识”。
但DeepSeek表示,这不是故意行为,而是偶然发生的。
OpenAI尚未立即回应评论请求。
(以上内容均由Ai生成)