南大与上交发布PhysX-Anything,单图生成3D资产,显式保留物理参数
快速阅读: 南洋理工大学与上海人工智能实验室发布PhysX-Anything,仅需RGB图像生成3D资产,提升机器人训练效率。技术优势显著,性能超越现有方法,计划2026年推出视频输入版本。
南洋理工大学与上海人工智能实验室共同发布了开源框架 PhysX-Anything,该框架仅需一张 RGB 图像即可生成包含几何、关节及物理参数的完整 3D 资产,适用于 MuJoCo 和 Isaac Sim 等平台的机器人策略训练。
技术亮点包括:
1. 由粗到细的流程:首先预测整体物理属性(如质量、质心、摩擦系数),然后细化部件级别的几何形状和关节极限角度,避免因“视觉优先”而引起的物理失真。
2. 创新的 3D 表示方法:将面片、关节轴和物理属性编码至 8K 维的隐向量中,推理时一次性解码,生成速度比现有最佳技术提升了 2.3 倍。
3. 显式的物理监督:数据集中加入了 12 万组真实的物理测量值,在训练过程中引入质心、惯量和碰撞盒损失,确保仿真的准确性。
测试结果显示,PhysX-Anything 在 Geometry-Chamfer 和 Physics-Error 两项指标上分别降低了 18% 和 27%,绝对尺度误差小于 2 厘米,关节运动范围误差小于 5 度,明显优于 ObjPhy 和 PhySG 等最新方法。在真实场景测试中(如宜家家具和厨房用具),生成的 3D 资产导入 Isaac Sim 后,机器人的抓取成功率提高了 12%,训练步数减少了 30%。
该项目已在 GitHub 上线,提供了权重、数据和评估基准。团队计划于 2026 年第一季度推出支持“视频输入”的 V2 版本,能够预测可动部件的时间轨迹,为动态场景的策略学习提供支持。相关论文链接为:https://arxiv.org/pdf/2511.13648
(以上内容均由Ai生成)