DeepSeek发布V3.2双模型,长文本处理与深度思考显著提升
快速阅读: DeepSeek发布V3.2及V3.2-Speciale模型,核心升级为转正稀疏注意力技术,显著提升推理速度与效率,开源并支持商业化,未来有望在长文本处理与推理上领先。
DeepSeek 发布了 V3.2(标准版)和 V3.2-Speciale(深度思考版)。官方评测结果显示,在128K上下文场景下,V3.2与GPT-5互有胜负;而V3.2-Speciale在MMLU、HumanEval等基准测试中与Gemini3Pro打平,并在IMO2025盲测中达到金牌分数线的83.3%。此次核心升级为转正稀疏注意力(DSA),通过“目录”式路由token,将长文本计算复杂度从O(n²)降至O(n),显存占用减少40%,推理速度提升2.2倍,首次在开源模型中实现了百万token单卡推理。
在后训练阶段,团队将超过10%的集群算力用于强化学习,采用组对强化学习(GRPO)和多数投票方法,使模型在代码、数学和工具调用任务上的表现接近闭源对手。V3.2-Speciale取消了“思考长度惩罚”,鼓励更长的链式推理,平均输出token比Gemini3Pro高出32%,但准确率提升了4.8个百分点。
该模型已在GitHub和Hugging Face上线,权重采用Apache 2.0协议,允许商业化。DeepSeek表示,下一步将开源长文本DSA内核和RL训练框架,继续将“闭源优势”转化为社区基础设施。行业评论认为,如果后续版本能保持当前的迭代速度,开源阵营有望在2026年前实现“长文本+推理”的双重领先。
(以上内容均由Ai生成)