NVIDIA 的新推理模型和构建块为下一代 AI 代理铺平了道路
快速阅读: 据《硅角度》最新报道,英伟达在GTC 2025上发布Llama Nemotron AI模型,提升推理能力和多步任务处理效率。该模型可通过Nano、Super和Ultra三种规格优化不同应用场景。英伟达还推出AI-Q蓝图和AI数据平台,强化AI代理构建能力,并与多家公司合作推动AI应用发展。
英伟达不仅通过提供底层基础设施,还通过提供支持下一代自主代理的模型来抓住代理人工智能的趋势。在今日的GTC 2025大会中,该公司发布了一套新的Llama Nemotron AI模型,具备先进的推理能力。这些模型基于Meta公司的著名开源Llama系列模型,并旨在为开发者提供坚实的基础,让他们能够构建出能够在最少监督下为用户提供任务的高级AI代理。
英伟达表示,它主要基于Meta的Llama模型,随后通过后训练增强技术进行改进,提升其多步数学、编码、复杂决策和推理能力。经过精细调整,英伟达称Llama Nemotron AI模型比基础的Llama模型准确率提升了20%,同时推理速度提高了五倍,使其能够以更低的操作成本处理更多复杂的任务。
在今日的GTC 2025大会上,该公司发布了一套新的Llama Nemotron AI模型,具备先进的推理能力。这些模型基于Meta平台公司的著名开源Llama系列模型,并旨在为开发者提供坚实的基础,让他们能够构建出能够在最少监督下为用户提供任务的高级AI代理。Llama Nemotron模型将通过英伟达NIM微服务平台以三种规格(Nano、Super和Ultra)提供,针对不同应用类型进行了优化。根据英伟达的说法,Llama Nemotron Nano设计用于个人电脑、边缘设备和其他低功耗硬件上部署。Super模型优化用于单个图形处理器运行,而Ultra版本则面向需要在多个GPU服务器上获得最大性能的人群。
Llama Nemotron模型将通过英伟达NIM微服务平台以三种规格(Nano、Super和Ultra)提供,针对不同应用类型进行了优化。该公司表示,它利用了英伟达DGX云平台、英伟达Nemotron提供的高质量合成数据以及自己的专有、精选的数据集进行后训练优化。为了保持开放性,它公开了这些数据集、使用的工具以及后训练优化技术的详细信息,以便每个人都能了解改进之处并开发自己的基础推理模型。
尽管刚刚宣布,但英伟达已积累了大量合作伙伴,他们正利用Llama Nemotron模型打造强大的新AI代理。例如,微软将在其基于云的Azure AI Foundry服务上提供它们,并且它们也将作为选项供客户通过Azure AI代理服务为Microsoft 365创建新代理。另一家合作伙伴SAP SE正在利用Llama Nemotron模型提升其AI助手Joule及其SAP商业AI解决方案组合的能力。此外,包括埃森哲、Atlassian、Box和ServiceNow在内的其他合作伙伴也在与英伟达合作,确保客户可以使用Llama Nemotron模型。
尽管刚刚宣布,但英伟达已积累了大量合作伙伴,他们正利用Llama Nemotron模型打造强大的新AI代理。例如,微软将在其基于云的Azure AI Foundry服务上提供它们,并且它们也将作为选项供客户通过Azure AI代理服务为Microsoft 365创建新代理。代理人工智能构建模块当然,对于任何想要构建AI代理的人来说,底层的大语言模型只是其中的一部分。还需要考虑基础设施、所需工具、关键的数据管道为其提供知识等。英伟达正在满足大部分这些需求,在今日的GTC 2025上发布了更多代理人工智能构建模块。
其中包括新的Nvidia AI-Q蓝图,这是一个让开发者能够将知识库与可自主行动的AI代理相连的框架。该蓝图由Nvidia NIM微服务构建,并与Nvidia NeMo检索器集成,使AI代理能够轻松获取多种格式的多模态数据。与此同时,新的Nvidia AI数据平台是一个可定制的参考设计方案,将提供给全球最重要的存储服务商。目的是帮助戴尔科技、惠普企业、日立数据系统、IBM、NetApp、Nutanix、Vast Data和Pure Storage等存储基础设施提供商开发更高效的数据平台,以支持代理人工智能推理任务。
其中包括新的Nvidia AI-Q蓝图,这是一个让开发者能够将知识库与可自主行动的AI代理相连的框架。该蓝图由Nvidia NIM微服务构建,并与Nvidia NeMo检索器集成,使AI代理能够轻松获取多种格式的多模态数据。通过整合高度优化的存储资源与Nvidia的加速计算硬件,该公司承诺开发人员在进行AI推理时会有显著的性能提升,从而确保信息从数据库到模型的流畅传输。
还有一些更新的Nvidia NIM微服务,用于优化代理人工智能推理,支持持续学习和适应。借助这些微服务,客户可以可靠地部署最新、最强大的代理人工智能模型,包括Nvidia的Llama Nemotron模型以及来自Meta、微软和Mistral AI等公司的替代品。最后,英伟达表示正在增强其NeMo微服务,这为开发人员提供了构建强大且高效的飞轮架构。这对确保AI代理能根据人类和AI生成的反馈持续学习至关重要。
还有一些更新的Nvidia NIM微服务,用于优化代理人工智能推理,支持持续学习和适应。借助这些微服务,客户可以可靠地部署最新、最强大的代理人工智能模型,包括Nvidia的Llama Nemotron模型以及来自Meta、微软和Mistral AI等公司的替代品。谈到AI代理,英伟达还宣布扩大与甲骨文的合作关系,将代理人工智能引入甲骨文云计算基础设施。根据协议,英伟达将其加速GPU和推理软件引入甲骨文的云计算基础设施,并使其兼容该公司的生成式AI服务。这将助力OCI上的AI代理开发。总体而言,英伟达目前通过OCI控制台提供超过160种AI工具和NIM微服务。此外,双方还宣布正在努力加速Oracle数据库23ai平台上的向量搜索。
转向其对AI代理的关注,英伟达还更新了与谷歌有限责任公司的扩展合作,揭示了一系列旨在增强和改善AI及其基础工具访问的计划。英伟达表示,它将是首个利用谷歌DeepMind的SynthID的组织,SynthID直接将数字水印嵌入AI生成的图像、视频和文本中,这有助于保护AI输出的完整性。SynthID最初将集成到英伟达的Cosmos World基础模型中,在那里它将提供防止错误信息传播和不当归因的安全保障。
在其他领域,英伟达协助谷歌DeepMind的研究人员优化了一组名为Gemma的开源轻量级AI模型,使其能在其GPU上运行。他们还在研究利用AI驱动机器人和抓取技能的计划及其他项目。“看到谷歌和英伟达的研究人员和工程师合作解决药物发现到机器人技术等不可思议的挑战,真是令人欣喜,”英伟达CEO黄仁勋表示。
图片来源:英伟达
SiliconANGLE联合创始人John Furrier的信息:您的支持对我们很重要,它让我们能持续提供免费内容。只需轻轻一点,就能支持我们提供免费、深入且相关的内容的使命。
您的支持对我们很重要,它让我们能持续提供免费内容。加入我们的YouTube社群加入包含超过15,000名#CubeAlumni专家的社群,其中包括亚马逊CEO安迪·贾西、戴尔科技创始人兼CEO迈克尔·戴尔、英特尔CEO帕特·格尔辛格等众多名人和专家。
‘CUBE是行业的关键合作伙伴。你们是我们活动的重要组成部分,我们非常感谢你们的参与,我知道大家也很欣赏你们创造的内容。’——安迪·贾西
(以上内容均由Ai生成)