腾讯自研大模型混元2.0发布:多方面能力提升
快速阅读: 腾讯发布大模型混元2.0和DeepSeek V3.2,前者采用混合专家架构,参数量4060亿,推理能力领先。两模型已应用于腾讯AI产品,并开放API服务。
腾讯自主研发的大模型混元2.0(Tencent HY2.0)正式发布,与此同时,DeepSeek V3.2也逐步接入腾讯生态系统。目前,这两款模型已在元宝、ima等腾讯AI原生应用中率先上线,腾讯云也同步开放了相关模型的API及平台服务。
新发布的Tencent HY2.0采用混合专家(MoE)架构,总参数量达4060亿(激活参数320亿),支持256000超长上下文窗口,其推理能力和效率在业内处于领先地位。
与上一版本(Hunyuan-T1-20250822)相比,HY2.0在预训练数据和强化学习策略上有了显著改进。在数学、科学、代码、指令遵循等复杂推理场景中,其综合表现稳居国内第一梯队,泛化能力也大幅提升。
在数学科学知识推理方面,HY2.0利用高质量数据进行大规模强化学习,推理能力显著增强。在国际数学奥林匹克竞赛(IMO-AnswerBench)和哈佛MIT数学竞赛(HMMT2025)等权威测试中,该模型取得了优异成绩。结合预训练数据的进步,模型在极度考验知识水平的Humanity’s Last Exam(HLE)和泛化性的ARC AGI等任务上也有显著提升。
在指令遵循与长文多轮能力方面,HY2.0通过重要性采样修正解决了训练和推理不一致的问题,实现了长窗口强化学习的高效稳定训练。同时,借助多样化的可验证任务沙盒和基于评分准则的强化学习,该模型在Multi Challenge等指令遵循和多轮任务上的效果显著提升。
在代码与智能体能力方面,腾讯构建了规模化可验证环境及高质量合成数据,极大增强了模型在代理编码及复杂工具调用场景中的实际应用能力。在SWE-bench Verified和Tau2-Bench等面向真实应用场景的智能体任务上,该模型实现了显著突破。
(以上内容均由Ai生成)