我看到了电子游戏的 AI 未来:它从一个角色跳过一个盒子开始
快速阅读: 据《CNET 公司》称,英伟达在GDC 2025展示了生成式AI技术,包括基于文本提示生成动画的Body Motion工具,RTX Remix重制《半条命2》的技术,以及ACE技术助力NPC动态交互。这些技术提升了游戏开发效率和玩家体验,部分功能已可立即使用。
上月初,图形芯片制造商英伟达在其位于加州圣何塞的GTC AI展会期间展示了多项关于其生成式AI产品和平台的合作与公告。与此同时,在旧金山,英伟达在游戏开发者大会(GDC)期间举办了一场闭门展示会,向游戏开发者和媒体展示其生成式AI技术如何提升未来电子游戏的表现。去年的GDC 2024展示会上,我有机会通过与AI驱动的非玩家角色(NPC)进行模拟对话来亲身体验。他们对我的输入做出了相当上下文相关的回复(尽管不如预设的对话那样自然)。AI还借助现代图形效果对旧游戏进行了大幅改进,以呈现当代图形风格。今年,在GDC 2025期间,英伟达再次邀请业内人士和记者进入靠近莫斯康中心的一家酒店房间,展示更多生成式AI如何重制旧游戏的方式供游戏玩家体验,为动画师提供新选项,以及推动NPC互动的进化。英伟达还演示了其最新的GPU AI图形渲染技术DLSS 4如何提升现代游戏中图像质量、光线路径及帧率,这些功能每天都影响着玩家的游戏体验,尽管英伟达的这些努力比其其他实验更为传统。虽然其中一些进步依赖于工作室将新技术整合到他们的游戏中,但其他部分现在就可以让玩家尝试。
大卫·伦布/CNET
从文本提示制作动画
英伟达详细介绍了新的工具,该工具基于文本提示生成角色模型动画——有点像你可以在iMovie中使用ChatGPT来让游戏中的角色按照脚本动作移动。目标?节省开发人员的时间。使用这个工具可以将几个小时的编程任务缩短为几分钟。
这个工具被称为Body Motion,可以插入许多数字内容创作平台;运行我演示的英伟达高级产品经理约翰·马拉斯卡使用了Autodesk Maya。为了开始演示,马拉斯卡设置了一个示例场景,他希望一个角色跳过一个盒子,落地并向前移动。在场景的时间轴上,他选择了这三个动作的时刻,并编写了文本提示以让软件生成动画。然后到了调整阶段。为了完善他的动画,他使用Body Motion生成了四个不同版本的角色跳跃动画并选择了他想要的那个。(所有动画都是基于授权的动作捕捉数据生成的,马拉斯卡说。)然后他指定了角色具体要落在哪里,接着选择他们最终要到达的位置。Body Motion模拟了这两个精心挑选的动作支点之间的所有帧,然后就完成了动画片段。
在演示的下一节中,马拉斯卡让同一个角色穿过喷泉走到楼梯前。他可以通过文本提示和时间线标记编辑,让角色绕过庭院设施偷偷行动。
“我们对此感到兴奋,”马拉斯卡说。“这真的会帮助人们加速和提高工作效率。”他指出了一些情况,比如开发人员可能得到一个动画,但希望它稍微不同,然后将其送回给动画师进行修改。如果动画是基于实际的动作捕捉,而游戏需要如此高的保真度,那么重新召集动作捕捉演员录制可能需要几天、几周甚至几个月。利用Body Motion基于动作捕捉数据库调整动画能够避免这一切。
我不能不担心动作捕捉艺术家以及Body Motion是否可能部分或全部取代他们的工作。慷慨地说,这个工具可以用于在引入专业艺术家进行最终动作捕捉场景之前制作动态分镜和虚拟故事板。但就像任何工具一样,这取决于谁在使用它。
Body Motion计划于2025年下半年以英伟达企业许可证的形式发布。
另一项借助RTX Remix重制《半条命2》的努力
在去年的GDC上,我看到了一些使用英伟达为modder提供的平台RTX Remix对《半条命2》进行重制的内容,该平台旨在为老游戏注入新的生命力。英伟达最新尝试复活Valve的经典游戏作为免费演示版向公众发布,游戏玩家可以在Steam上下载自行查看。
我在英伟达新闻室看到的最终是一次技术演示(而非完整游戏),但它展示了RTX Remix如何让旧游戏符合现代图形期望。
另一项借助RTX Remix重制《半条命2》的努力
去年的RTX Remix《半条命2》演示主要是展示如何用深度效果更新旧的平面墙纹理,例如使其看起来像铺砌的石板,这一点在这里也有体现。当观察一面墙时,“砖块仿佛凸出是因为采用了视差遮挡映射技术,”RTX Remix高级产品经理尼尔·乌斯曼尼在演示中说道。
但今年的演示更侧重于光照交互——甚至达到了模拟煤气表刻度盘玻璃后方阴影的效果。
大卫·伦布/CNET
阿米尼带我逐一讲解了所有的照明与火焰效果,这些效果让《半条命2》中堕落的拉文霍姆地区的某些标志性恐怖场景焕然一新。但最令人印象深刻的应用是在头蟹敌人袭击的地方,阿米尼停下并指出背光是如何透过这些畸形伪僵尸的肉体部分,让它们呈现出半透明的红色光芒,就像把手放在手电筒前时的效果一样。
与GDC同时,英伟达发布了这一效果——名为次表面散射——在一个软件开发工具包中,以便游戏开发者可以开始使用它。
阿米尼还指出了RTX Remix的其他技巧,比如在《半条命2》演示版本中的那个新神经着色器。他解释说,本质上,当玩家玩游戏时,大量的神经网络会实时训练游戏数据,并调整间接光照以适应玩家所见的内容,使得被照亮的区域看起来更像现实生活中那样。
例如,在新版本中,他切换到旧版和新版RTX Remix之间,展示了在新版本中,光线正确地透过车库破损的横梁过滤。
更好的是,它将每秒帧数提高到了100,从87提升上来。
“传统上,我们会追踪一条光线并多次反射它来照亮一个房间,”阿米尼说。“现在我们追踪一条光线并只反射两到三次就终止它,然后人工智能推断出许多后续的反弹。在足够多的帧数下,这几乎像是在计算无限数量的反弹,所以我们能够获得更高的准确性,因为它追踪的光线更少[并且性能更好]。”
不过,我是在一块售价550美元的RTX 5070显卡上演示的,而这个演示至少需要一块RTX 3060 Ti显卡,所以那些拥有更老、性能更低的显卡的用户就无法体验了。
“这纯粹是因为路径追踪非常昂贵——我的意思是,这是未来,基本上是最前沿的技术,也是最先进的路径追踪,”阿米尼说。
英伟达ACE技术利用AI帮助NPC思考
去年的NPC AI站展示了非玩家角色如何独特地响应玩家,但今年的英伟达ACE技术展示了玩家如何为NPC提出新的想法,从而改变他们的行为和周围的生活。
GPU制造商展示了这项技术如何插入到InZoi中,这是一个类似《模拟人生》的游戏,玩家可以在其中照料有着各自行为的NPC。但在即将推出的更新中,玩家可以打开Smart Zoi功能,该功能使用英伟达ACE直接向他们所管理的Zoi(角色)的思想中插入想法……然后观察他们的反应。
英伟达GeForce技术营销分析师温妮·里亚万解释说,这些想法不能违背他们自己的特质,因此他们会引导Zoi走向有意义的方向。
“例如,通过鼓励他们‘我想让人们的一天感觉更好’,这将促使他们与周围的更多Zoi交谈,”里亚万说。“尝试是关键词:他们仍然会失败。他们就像人类一样。”
里亚万向Zoi的脑海中插入了一个想法:“如果我只是模拟中的一个人工智能呢?”可怜的Zoi惊慌失措,但仍跑到公共卫生间刷牙,这符合她显然非常注重口腔卫生的特点。
这些根据玩家插入的想法进行的NPC行动是由一个包含5亿参数的小型语言模型驱动的(大型语言模型可以从10亿个参数扩展到超过300亿个参数,参数越多,就越有机会产生细致入微的响应)。游戏中使用的模型基于缩小后的Mistral NeMo Minitron 80亿参数模型,以便能够在较旧且性能较低的GPU上运行。
“我们故意将模型压缩成较小的模型,以便更多的人可以使用,”里亚万说。
英伟达ACE技术在设备上使用计算机GPU运行——InZoi的发行商Krafton建议使用此功能的最低GPU规格为Nvidia RTX 3060,具有8GB虚拟内存。Krafton给英伟达分配了一GB的VRAM预算,以确保显卡有足够的资源来渲染图形。因此需要减少参数的数量。
英伟达仍在内部讨论是否解锁更大参数的语言模型的使用权限,如果玩家拥有更强大的GPU的话。
玩家可能会注意到差异,因为NPC“确实会更加动态地反应,随着模型变大,它们对周围环境的反应也更好”,里亚万说。“目前,重点更多在于他们的想法与情感。”
Smart Zoi功能的早期访问版本将于3月28日起免费提供给所有用户。
英伟达将其视为迈向真正动态NPC的一个垫脚石。
“如果你有MMORPG中有英伟达ACE,NPC就不会停滞不前,只是重复相同的对话——他们可以变得更加动态,并根据你的声誉或其他因素生成自己的回应。比如,嘿,你是个坏人,我不想把我的商品卖给你,”里亚万说。
观看以下内容:
英伟达CES活动上宣布的所有内容12分钟内回顾
11:47
(以上内容均由Ai生成)