阿里巴巴推出超越 OpenAI o1 和 DeepSeek R1 的开源 Qwen3 模型
快速阅读: 据《VentureBeat 公司》称,阿里巴巴Qwen团队推出Qwen3系列多模态AI模型,包括“专家混合”和密集模型,参数最高达2350亿,性能媲美顶级专有模型。模型支持多语言,具备混合推理能力,开源且灵活部署,助力企业高效创新。
订阅我们的每日和每周简报,获取行业领先的人工智能覆盖的最新更新和独家内容。了解更多信息
中国电子商务和网络巨头阿里巴巴的Qwen团队已正式推出一系列新的开源人工智能大型语言多模态模型,名为Qwen3。这些模型被认为是当前开源模型中最前沿的,并接近OpenAI和Google等专有模型的性能。Qwen3系列包括两个“专家混合”模型和六个密集模型,总计八个新模型。
“专家混合”方法由开源法国人工智能初创公司Mistral推广,涉及将多种不同类型的特殊模型组合成一个整体,在模型内部设置(称为参数)中仅激活与任务相关的模型。这种方法显著提升了模型的效率与准确性。
根据团队的说法,Qwen3的2350亿参数版本A22B在关键第三方基准测试中表现优异,优于DeepSeek的开源R1和OpenAI的专有o1,包括在ArenaHard(包含500个软件工程和数学用户问题)的测试中。同时,它接近新发布的Google Gemini 2.5-Pro专有模型的性能。总体而言,基准数据将Qwen3-235B-A22B定位为最强大的公开可用模型之一,相对于主要行业的提供物达到了持平或优越的表现。
**混合(推理)理论**
Qwen3模型被训练以提供所谓的“混合推理”或“动态推理”能力,允许用户在快速、准确的响应和更耗时、计算密集的推理步骤之间切换(类似于OpenAI的“o”系列),用于科学、数学、工程和其他专业领域的更困难查询。这是Nous Research和其他人工智能初创企业和研究集体开创的方法。通过Qwen3,用户可以通过点击Qwen聊天网站上标记为“思考模式”的按钮或在部署模型时嵌入特定提示如/think或/no_think来启用更密集的“思考模式”,这取决于任务的复杂性,从而实现灵活使用。
Qwen3模型被训练以提供所谓的“混合推理”或“动态推理”能力,允许用户在快速、准确的响应和更耗时、计算密集的推理步骤之间切换(类似于OpenAI的“o”系列),用于科学、数学、工程和其他专业领域的更困难查询。这是Nous Research和其他人工智能初创企业和研究集体开创的方法。用户现在可以在Hugging Face、ModelScope、Kaggle和GitHub等平台上访问和部署这些模型,也可以通过Qwen Chat网页界面和移动应用程序直接与它们交互。
发布内容包括Mixture of Experts (MoE) 和密集模型,所有内容均在Apache 2.0开源许可下提供。在我对Qwen聊天网站的简短使用中,它能够相对较快地生成图像,并且很好地遵循提示——特别是在将文本原生融入图像并匹配风格时。然而,它经常提示我登录,并受到通常的中国内容限制(例如禁止与天安门广场抗议相关的提示或回复)。除了MoE产品外,Qwen3还包括不同规模的密集模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。这些模型在大小和架构上有所不同,为用户提供多样化的选择以适应不同的需求和计算预算。
Qwen3模型还显著扩展了多语言支持,现在涵盖主要语言家族中的119种语言和方言。这扩大了模型在全球范围内的潜在应用,促进了在各种语言环境下的研究和部署。
**模型训练和架构**
在模型训练方面,Qwen3相较于其前身Qwen2.5有了实质性的提升。预训练数据集的规模增加了一倍,达到约36万亿个令牌。数据来源包括网络爬虫、PDF样式的文档提取以及使用先前专注于数学和编码的Qwen模型生成的合成内容。训练管道包括三个阶段的预训练过程,随后是四个阶段的后训练精炼,以实现混合思考和非思考能力。这些训练改进使Qwen3的密集基础模型能够匹配甚至超过更大规模的Qwen2.5模型的性能。
**部署选项**
部署选项非常灵活。用户可以使用SGLang和vLLM等框架集成Qwen3模型,这些框架都提供了与OpenAI兼容的端点。对于本地使用,推荐使用Ollama、LMStudio、MLX、llama.cpp和KTransformers等选项。此外,鼓励有兴趣探索模型代理能力的用户尝试Qwen-Agent工具包,该工具包简化了工具调用操作。
Qwen团队成员林俊阳在X上评论道,构建Qwen3涉及解决一些关键但不太吸引人的技术挑战,例如稳定地扩展强化学习、平衡多领域数据以及在不牺牲质量的情况下扩展多语言性能。林还表示,团队正在转向培训能够在现实世界任务中进行长期推理的代理。
**对企业决策者的意义**
工程团队可以在几小时内而不是几周内将现有的OpenAI兼容端点指向新模型。MoE检查点(235 B参数,其中22 B活动,30 B参数中有3 B活动)在GPU内存成本相当于一个20–30 B密集模型的情况下提供了GPT-4级别的推理能力。官方LoRA和QLoRA钩子允许在不向第三方供应商发送专有数据的情况下进行私有微调。从0.6 B到32 B的密集变体使得在笔记本电脑上轻松原型化并在多GPU集群中扩展而无需重写提示变得容易。在本地运行权重意味着所有提示和输出都可以记录和检查。MoE稀疏性减少了每次调用的活动参数数量,缩小了推理攻击面。Apache-2.0许可消除了基于使用的法律障碍,尽管组织仍应审查使用由中国供应商训练的模型的出口管制和治理影响。然而,与此同时,它也为包括DeepSeek、腾讯和字节跳动在内的其他中国玩家以及不断增长的北美模型(如上述的OpenAI、Google、Microsoft、Anthropic、Amazon、Meta等)提供了一个可行的替代方案。宽松的Apache 2.0许可——允许无限商业使用——也是相对于Meta等更为限制性许可的另一大优势。这进一步表明,人工智能提供商之间提供越来越强大和易用模型的竞争仍然非常激烈,明智的组织在试图降低成本时应该努力保持灵活性和开放态度,评估这些新模型以用于其人工智能代理和工作流程。
**展望未来**
Qwen团队将Qwen3不仅定位为增量改进,而是迈向未来通用人工智能(AGI)和超级人工智能(ASI)目标的重要一步,即比人类更聪明的人工智能。Qwen下一阶段的计划包括进一步扩大数据和模型规模,延长上下文长度,扩展模态支持,并通过环境反馈机制增强强化学习。随着大规模人工智能研究格局的不断发展,Qwen3在可访问许可下的开放权重发布标志着另一个重要里程碑,降低了研究人员、开发人员和组织创新最先进LLMs的门槛。
**每日关于商业应用场景的洞见**
如果想给你的老板留下深刻印象,VB Daily可以帮到你。我们为你提供公司如何使用生成式人工智能的内幕消息,从监管变化到实际部署,以便你可以分享见解以获得最大回报。立即订阅阅读我们的隐私政策感谢订阅。查看更多VB新闻通讯在这里。发生错误。
(以上内容均由Ai生成)