DeepSeek发布V3.1,强化长文档分析与代码理解
快速阅读: DeepSeek宣布在线模型升级至V3.1,上下文长度扩展至128K,适用于长文档分析等场景,性能提升43%,减少不实信息38%,优化多语言支持,用户可通过官网等渠道体验新版本。
8月19日晚,DeepSeek 宣布其在线模型版本已升级至 V3.1,最显著的改进是上下文长度扩展至 128K,相当于可处理 10万至13万汉字的超长文本,适用于长文档分析、代码库理解和多轮对话场景。
用户现在可以通过官网、App 或微信小程序体验新版本,API 接口调用方式保持不变,开发者无需额外调整即可无缝切换。
此次升级并非大版本迭代,而是对 V3 模型的优化。测试显示,V3.1 在多步推理任务中的表现比前代提升了 43%,尤其在数学计算、代码生成和科学分析等复杂任务中准确性更高。同时,模型生成不实信息的情况减少了 38%,输出可靠性显著增强。此外,V3.1 还优化了多语言支持,尤其提升了对亚洲语言及小众语种的处理能力。
尽管 V3.1 带来了重要改进,但用户更期待的下一代大模型 DeepSeek-R2 仍未确定发布时间。此前市场传言 R2 将于 8 月 15 日至 30 日发布,但接近 DeepSeek 的知情人士表示,该消息不属实,官方目前没有具体发布计划。
DeepSeek 的更新节奏显示,在 R2 发布前可能会先推出 V4 模型。不过,官方一直保持低调,强调“做完了就会发布”,未回应任何市场推测。
体验地址:https://chat.deepseek.com/
(以上内容均由Ai生成)