MiniMax发布M2:2300亿参数专为智能Agent优化
快速阅读: MiniMax发布新一代开源模型M2,采用MoE架构,总参数2300亿,每次推理激活100亿参数,实现每秒100个token输出,专为智能Agent设计,提升推理连贯性和响应效率,降低开发门槛。
在大模型竞赛从“拼参数”转向“拼效率”的关键时刻,MiniMax于10月27日发布了新一代开源推理模型M2。该模型通过精确的工程取舍,锁定智能Agent这一未来AI应用的核心领域。M2采用了混合专家架构(Mixture-of-Experts, MoE),总参数量达到2300亿,但在每次推理时仅激活100亿参数,实现了每秒100个token的输出速度,这一性能使其在实时交互场景中具有显著优势。尤为重要的是,M2专为智能Agent设计,增强了行为决策、多轮任务规划与环境交互中的推理连贯性和响应效率,为构建真正的自主AI智能体提供了底层引擎。
值得注意的是,与前代M1模型相比,M2在上下文窗口上进行了战略性调整,从M1支持的100万token大幅缩减至20.48万token。这并不是技术上的倒退,而是MiniMax在长文本处理、推理速度与部署成本之间做出的务实选择。虽然M1以“百万上下文”创造了记录,但其高资源消耗限制了实际应用;M2则专注于高频、高响应的Agent任务,在保持足够上下文长度的同时,显著提升了吞吐效率和经济性。
作为开源模型,M2进一步降低了开发者构建定制化智能体的门槛。无论是开发具备复杂任务链的虚拟助手、自动化工作流机器人,还是集成到企业系统中的决策Agent,开发者都可以基于M2快速迭代,灵活优化。
MiniMax明确将M2定位为“Agent时代的推理基石”。随着AI从“问答工具”向“行动代理”转变,M2的推出不仅是模型的升级,也是对未来AI应用模式的一次重要布局——当智能体需要快速思考、持续行动、高效交互时,速度和成本可能比上下文长度更加重要。
(以上内容均由Ai生成)