英伟达发布L4级自动驾驶推理模型,车辆先“思考”再行动
快速阅读: 英伟达在NeurIPS2025发布L4级自动驾驶模型Alpamayo-R1,具备视觉、语言、动作三模态统一训练,能处理复杂交通场景,官方称其为“人类常识”注入车辆。
加州圣迭戈电 —— 在NeurIPS2025现场,英伟达发布了首款面向L4级自动驾驶的推理视觉语言动作模型Alpamayo-R1,并同步上线至GitHub与Hugging Face。该模型基于今年8月推出的Cosmos-Reason系列,能够同时处理摄像头、激光雷达与文本指令,先进行内部推理,再输出驾驶决策,官方称其为车辆注入了“人类常识”。
Alpamayo-R1的主要亮点如下:
– 统一架构:视觉、语言和动作三模态端到端训练,避免分模块误差叠加。
– 推理链路:利用Cosmos思维链,模型可以对“前车急刹、行人横穿”等场景进行多步推演,再输出加速、制动或转向信号。
– 即开即用:提供包含权重、推理脚本与评估工具的“Cosmos Cookbook”,开发者可根据需求进行微调。
英伟达首席科学家Bill Dally表示,机器人与自动驾驶将是下一波AI浪潮的核心,“我们要做所有机器人的大脑”。随着新模型的发布,公司还推出了数据合成、模型评测与后训练全流程指南,鼓励车企与Robotaxi团队在限定区域内快速验证L4功能。
分析师认为,开源推理模型可以显著降低车厂自研门槛,但要通过功能安全认证并满足车规级实时要求,仍是Alpamayo-R1商业化前必须克服的挑战。
(以上内容均由Ai生成)