阿里云开源Wan2.2-Animate,大幅提升动作生成质量
快速阅读: 阿里云发布开源Wan2.2-Animate模型,支持动作模仿与角色扮演,提升视频生成质量和人物一致性,广泛应用于短视频、舞蹈模板和动漫制作,用户可通过GitHub等平台获取。
2025年9月19日,阿里云宣布开源通义万相全新动作生成模型Wan2.2-Animate。此模型可驱动人物、动漫形象和动物照片,在短视频创作、舞蹈模板生成、动漫制作等领域广泛应用。用户可在GitHub、HuggingFace和魔搭社区下载模型和代码,或通过阿里云百炼平台调用API,亦可在通义万相官网直接体验。
Wan2.2-Animate基于此前开源的Animate Anyone模型进行全面升级,在人物一致性、生成质量等方面显著提升,同时支持动作模仿和角色扮演两种模式。在角色模仿模式下,输入一张角色图片和一段参考视频,模型能将视频角色的动作和表情迁移到图片角色中,赋予其动态表现力。在角色扮演模式下,模型能在保留原始视频动作、表情及环境的前提下,将视频中的角色替换为图片中的角色。
通义万相团队构建了一个包含说话、面部表情和身体动作的大规模人物视频数据集,并在此基础上进行了后训练。Wan2.2-Animate将角色信息、环境信息和动作规范化为统一的表示格式,实现了单一模型同时兼容两种推理模式。对于身体运动和脸部表情,模型分别采用骨骼信号和隐式特征,结合动作重定向模块,实现动作和表情的精准复刻。在替换模式中,团队还设计了一个独立的光照融合LoRA,确保光照融合效果完美。
实测显示,Wan2.2-Animate在视频生成质量、主体一致性和感知损失等关键指标上超越了StableAnimator、LivePortrait等开源模型,成为当前性能最强的动作生成模型。在人类主观评测中,Wan2.2-Animate的表现甚至超过了以Runway Act-two为代表的闭源模型。
GitHub链接:https://github.com/Wan-Video/Wan2.2
魔搭社区链接:https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B
HuggingFace链接:https://huggingface.co/Wan-AI/Wan2.2-Animate-14B
(以上内容均由Ai生成)