DeepSeek发布开源数学模型,首获IMO金牌
快速阅读: DeepSeek发布DeepSeek-Math-V2,6850亿参数的开源数学推理模型,采用“生成-验证”机制,获IMO金牌,成绩领先多国代表队,全面超越现有模型。
DeepSeek今日正式发布DeepSeek-Math-V2,这款拥有6850亿参数的混合专家(MoE)模型,成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水平的数学推理大模型。该模型基于DeepSeek-V3.2实验版基础架构开发,以Apache 2.0开源协议完整开放权重,在数学推理能力上实现了质的飞跃。
最引人注目的突破是其开创性的“生成-验证”双模型闭环机制。DeepSeek-Math-V2不再像传统大模型那样一次性输出结果,而是配备了一个专门的验证器,对生成器输出的每一步证明进行实时逻辑审查。一旦发现漏洞或“侥幸正确”的病态推理,验证器会立即反馈,生成器随即自我修正。这种类似于人类数学家反复打磨证明的过程,通过强化学习被完整内化到模型训练中,使其具备了真正的“可自我验证”能力。
在备受瞩目的2025年国际数学奥林匹克竞赛(IMO)中,DeepSeek-Math-V2成功解决了6道题目中的5道,以83.3%的正确率获得金牌,折算分数为210分(满分252),位列全球第三,仅次于美国和韩国代表队。在2024年的中国数学奥林匹克(CMO)中,该模型同样达到了金牌水准。在北美最具影响力的本科生赛事——2024年普特南数学竞赛(Putnam)中,放开测试时的算力情况下,它取得了118/120的近乎满分成绩,远超人类历史最高分90分。
在谷歌DeepMind主导的IMO-ProofBench正式推理基准上,DeepSeek-Math-V2在基础难度部分获得了99%的正确率,在高难度部分取得了61.9%,全面超越此前所有公开模型,仅略低于DeepMind内部的Gemini Deep Think增强版。
与OpenAI的o1系列、DeepMind的AlphaProof等闭源系统不同,DeepSeek-Math-V2从模型权重到完整的训练细节全部开源,任何研究者和开发者都可以在Hugging Face直接下载,并在本地或云端自由部署。这意味着全球的数学家和计算机科学家可以立即复现、审计甚至改进这一历史性突破。
DeepSeek方面表示,该模型的训练大量借鉴了人类数学专家对“病态证明”的标注,随后通过动态分配验证算力(最高并行64条推理路径、迭代16轮)实现了从人工到自动的平滑过渡。这一设计不仅大幅提升了证明的质量,也为未来在药物设计、密码学、形式化验证等需要极高可信度的场景中部署人工智能奠定了基础。
目前,该模型已在Hugging Face和GitHub正式上线,支持Transformers一键加载。DeepSeek同时公开了其在IMO、CMO、Putnam等多项赛事上的完整解题过程与预测结果,接受全球同行的检验。
地址: https://huggingface.co/deepseek-ai/DeepSeek-Math-V2 https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf
(以上内容均由Ai生成)