阿里云开源Qwen3-Coder-Flash编程模型
快速阅读: 据《AIbase – AI新闻资讯》称,近日,Qwen3-Coder系列新增成员Qwen3-Coder-Flash,该模型在性能和效率方面表现出色,尤其擅长代理式编程、浏览器使用和工具调用,支持256K tokens并可扩展至1M tokens,极大提升了大型项目和复杂代码库的开发效率。Qwen3-Coder-Flash已正式开源,支持多平台使用,为开发者提供了强大的编程支持。
近日,Qwen3-Coder系列新增了一名成员——Qwen3-Coder-Flash。这款被开发者亲切称为“甜品级”的编程模型,凭借其卓越的性能和高效的运行速度,为编程领域带来了新的惊喜。
Qwen3-Coder-Flash的全称为Qwen3-Coder-30B-A3B-Instruct,在性能和效率方面表现出色,尤其在代理式编程、浏览器使用和工具调用等领域展现了超强的Agent能力。这一能力不仅超越了当前顶级的开源模型,仅略逊于顶配版Qwen3-Coder-480B-A35B-Instruct及Claude Sonnet-4、GPT4.1等领先闭源模型,为开发者提供了强大的编程支持。
在上下文理解方面,Qwen3-Coder-Flash同样表现出色。它原生支持256K tokens,并可通过YaRN扩展至1M tokens,意味着整个项目库都能被理解,解决了代码上下文断层的问题。这一特性对于处理大型项目和复杂代码库尤为重要,极大提升了开发效率。
Qwen3-Coder-Flash不仅性能强大,还具备良好的兼容性和易用性。它支持多平台使用,具有专门设计的函数调用格式,为Qwen Code、CLINE、Roo Code、Kilo Code等平台进行了优化,使开发者在使用过程中更加便捷。无论是在本地硬件部署还是云端使用,Qwen3-Coder-Flash都能轻松应对,为开发者提供了极大的便利。
目前,Qwen3-Coder-Flash已在魔搭社区和Hugging Face正式开源,开发者可在本地硬件上自由部署,构建专属的代码助手。同时,该模型也在Qwen Chat上同步上线,开发者可访问chat.qwen.ai直接体验其强大的编程能力。
(以上内容均由Ai生成)