百度ERNIE-4.5登顶Hugging Face,轻量级模型展现高效推理能力
快速阅读: 百度推出ERNIE-4.5-21B-A3B-Thinking,采用先进MoE架构,参数效率高,性能优异,支持128K长上下文,开源促进AI生态发展。
近日,百度旗下文心大模型家族迎来重大升级,ERNIE-4.5-21B-A3B-Thinking正式开源,并迅速登顶Hugging Face平台的文本生成模型榜单首位,同时位居整体模型榜第三。这款轻量级Mixture-of-Experts (MoE)模型凭借卓越的推理能力和参数效率,引起了行业的广泛关注,标志着中国AI开源生态的又一里程碑。
ERNIE-4.5-21B-A3B-Thinking采用了先进的MoE架构,总参数规模为21B,但每个token仅激活3B参数。这种稀疏激活机制显著降低了计算开销,同时保持了高性能输出。该模型支持128K长上下文窗口,特别适合处理复杂的长文本任务,如逻辑推理、数学求解和学术分析。
不同于主流模型依赖的PyTorch框架,ERNIE-4.5系列基于百度自研的飞桨(PaddlePaddle)深度学习框架进行训练和优化。这一独立框架的设计不仅提升了模型在多模态任务中的兼容性,还确保了高效的硬件适配。目前,全球范围内采用自研框架训练大模型的厂商仅有百度和谷歌,这突显了其技术自主性和创新深度。
根据最新基准测试,该模型在逻辑推理、数学、科学、编码和文本生成等任务上表现出色,甚至在部分指标上接近或超越Gemini2.5Pro和GPT-5级别的模型。尽管总参数仅为21B(约相当于Qwen3-30B的70%),其在BBH、CMATH等数学推理基准上的得分已超过同类竞品,展现了极高的参数效率。
此外,模型内置高效工具调用功能,支持结构化函数调用和外部API集成,适用于程序合成、符号推理和多代理工作流场景。在长上下文理解方面,经过专属训练,它能稳定处理海量信息,生成学术级合成内容,显著减少了幻觉问题。该模型还支持双语(中英)优化,适用于全球开发者和企业应用。
开源社区反馈显示,该模型在Hugging Face上的下载量和趋势指数飙升,成为文本生成领域的热门选择。开发者可通过vLLM、Transformers4.54+和FastDeploy等工具轻松集成,实现本地部署或云端推理。
开源的意义在于推动AI的民主化与生态建设。ERNIE-4.5-21B-A3B-Thinking以Apache2.0许可发布,支持商业使用,进一步降低了AI技术的门槛。继6月底百度开源ERNIE4.5家族其他10款模型后,此次发布强化了其在开源AI领域的领导地位。目前,Hugging Face平台前排模型多为中国开源成果,反映出中国AI在MoE架构和推理优化上的全球竞争力。
作为文心大模型的最新迭代,该模型不仅提升了指令跟随和知识密集任务的表现,还通过多轮强化学习强化了其“思考”模式。在视觉-语言任务中,其VL变体也表现出色,缩小了与OpenAI-o1在MathVista和MMMU等基准上的差距。
这款模型的发布证明了无需万亿级密集参数即可实现深度推理的可能性。它为资源受限的开发者提供了高性能选项,推动AI从实验室向实际应用的转型。未来,随着飞桨框架的进一步生态扩展,ERNIE系列有望在Agent产品和多模态应用中发挥更大作用,避免单一厂商垄断带来的风险。
(以上内容均由Ai生成)