Mistral AI发布128K上下文开源模型,性能比肩GPT-4,价格减半
快速阅读: 法国Mistral AI发布Mistral3系列模型,涵盖3B至14B版本,开源免费商用,性能领先,支持128K上下文推理,适用于多种场景,API已上线,价格低于GPT-4,促进AI基础设施多极化竞争。
法国独角兽 Mistral AI 于12月2日发布了 Mistral3系列模型,涵盖3B、8B、14B 三种小型密集模型以及迄今为止最强的 Mistral Large3,满足从边缘设备到企业级推理的各种需求。新模型继续采用 Apache2.0 开源许可,相关权重已同步上传至 Hugging Face 和 GitHub,支持免费商业使用。
Mistral3 系列不仅保留了前代产品低延迟的优势,还将上下文长度扩展到了128K,在 MMLU、HumanEval、MT-Bench 等主流基准测试中,与 Llama3.1同规格模型相比表现持平或略有领先。公司介绍称,通过“滑动窗口注意力+分组查询注意力”的混合设计,14B 版本能够在单张 A100 上实现128K 全上下文推理,批量处理时吞吐量提高了42%,适用于学术研究、商业分析、教育内容生成等多种应用场景,提供更高的性价比。
Mistral AI 联合创始人兼首席科学家 Guillaume Lample 强调:“我们的目标是打破高性能 AI 的供应商锁定。即使没有大额预算,开发者也能获得与闭源解决方案相匹敌的效果。”目前,Mistral Large3 已经在公司的官方平台 Le Platforme 上线 API,收费标准为每百万 token 输入0.8美元、输出2.4美元,价格大约是 GPT-4 的一半,并且支持微调和私有部署。行业分析师认为,凭借欧洲 GDPR 的合规优势和开放权重策略,Mistral3 有望进一步占领中小企业和公共部门市场,促进 AI 基础设施的“多极化”竞争。
(以上内容均由Ai生成)