DeepSeek新模型发布,API成本降低超50%
快速阅读: DeepSeek发布实验性模型V3.2-Exp,引入细粒度稀疏注意力机制,提升长文本处理效率,API费用降低超50%,输入缓存命中费降至0.2元/百万token,缓存未命中费降至2元/百万token,输出费降至3元/百万token。
DeepSeek发布新版模型,API成本降低超过50%。9月29日,DeepSeek正式推出DeepSeek-V3.2-Exp模型,该版本为实验性质。此前,多位科技博主注意到,DeepSeek-V3.2新模型曾短暂出现在其HuggingFace官方页面上,随后被移除,直至DeepSeek正式宣布新版本的发布。
据DeepSeek介绍,V3.2-Exp是向新一代架构过渡的重要一步,基于V3.1-Terminus,引入了DeepSeek Sparse Attention(DSA)技术,这是一种细粒度稀疏注意力机制,旨在提高长文本训练和推理的效率。目前,官方应用程序、网站和小程序均已更新至DeepSeek-V3.2-Exp,同时API费用显著下降。
DSA技术首次实现了细粒度稀疏注意力机制,在几乎不牺牲模型性能的情况下,大幅提升了长文本训练和推理的效率。为了严谨评估稀疏注意力机制的影响,DeepSeek-V3.2-Exp的训练配置与V3.1-Terminus进行了严格对齐。在多个公开测试集上,V3.2-Exp的表现与V3.1-Terminus相当。
在新模型的研发过程中,团队设计并实现了大量新的GPU算子,利用高级语言TileLang进行快速原型开发,以便进行更深入的技术探索。最终阶段,以TileLang为精度基准,逐步采用底层语言实现更高效的版本。此次开源的主要算子包括TileLang和CUDA两种版本。
得益于新模型服务成本的显著降低,官方API价格也有所下调,开发者使用DeepSeek API的成本将减少50%以上。具体来说,输入缓存命中费用从0.5元降至0.2元/百万token,缓存未命中费用从4元降至2元/百万token,输出费用从12元降至3元/百万token。
除了DeepSeek,国内另一家大型模型制造商智谱也即将发布其新一代旗舰模型GLM-4.6,当前Z.ai官网上显示GLM-4.5为上一代旗舰产品。9月18日,梁文锋关于DeepSeek-R1的研究成果登上了国际顶级期刊《自然》杂志封面。
今年1月,国产大模型公司深度求索(DeepSeek)在预印本平台arXiv上发布了论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,梁文锋作为创始人之一参与了研究。《自然》杂志评价称,DeepSeek-R1通过强化学习训练模型,使其在解决数学问题时能够获得奖励,而错误答案则会受到惩罚,这一方法有助于模型学会推理,类似于人类解决复杂问题的方式,尽管这对人工智能而言是一项重大挑战,通常需要人工干预来标注和注释。
(以上内容均由Ai生成)