阿里发布Qwen3-30B-A3B-Thinking-2507推理模型
快速阅读: 据《AIbase – AI新闻资讯》称,近日,Qwen3-30B-A3B模型推出新版本Qwen3-30B-A3B-Thinking-2507,在推理能力、通用能力和上下文长度上均有显著提升。新版本在数学、代码、知识水平及通用能力评测中表现优异,支持256K tokens并可扩展至1M tokens,现已在魔搭社区和HuggingFace上开源。
Qwen3-30B-A3B模型近日迎来重大更新,推出新版本Qwen3-30B-A3B-Thinking-2507。此版本在推理能力、通用能力和上下文长度上均有显著提升,标志着该模型不仅更加轻巧,而且具备更强的思考能力。
与4月29日开源的Qwen3-30-A3B模型相比,新版本在多个关键领域取得进步。在数学能力方面,Qwen3-30B-A3B-Thinking-2507在AIME25评测中获得85.0的高分,超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。在代码能力测试LiveCodeBench v6中,新模型也取得66.0的高分,显示其在编程领域的强大能力。此外,新模型在知识水平(GPQA、MMLU-Pro)方面较上一版本有显著提升。
除了数学和代码能力的增强,Qwen3-30B-A3B-Thinking-2507在通用能力上也实现了全面升级。在写作(WritingBench)、Agent能力(BFCL-v3)、多轮对话和多语言指令遵循(MultiIF)等通用能力评测中,新模型均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking),显示出其在理解和生成自然语言方面的卓越能力。
新模型的上下文理解能力也得到显著增强,原生支持256K tokens,并可扩展至1M tokens。这一改进使Qwen3-30B-A3B-Thinking-2507能够处理更长的文本输入,更好地理解和生成复杂的文本内容。此外,新模型的思考长度也有增加,开发团队建议在高度复杂的推理任务中设置更长的思考预算,以充分发挥其潜力。
为方便开发者和研究人员使用和测试新版本,Qwen3-30B-A3B-Thinking-2507已在魔搭社区和HuggingFace上开源。其轻量体积使得该模型可以在消费级硬件上轻松实现本地部署。同时,开发团队在Qwen Chat上同步上线了新模型,欢迎开发者体验其强大的推理和生成能力。
(以上内容均由Ai生成)