准备好推理:存储领导者构建基础设施,利用 NVIDIA AI 数据平台为 AI 代理提供动力
快速阅读: 据《NVIDIA 官方博客》称,全球领先存储和服务器制造商正联手利用NVIDIA AI数据平台开发人工智能基础设施,支持新一代AI应用。NVIDIA认证的存储伙伴及ODM正推出相关产品和硬件平台,加速企业数据向知识转化,提升AI代理性能和安全性。了解更多,可参与NVIDIA GTC台北活动。
全球领先的存储和服务器制造商正在联合其设计与工程专长,与NVIDIA AI数据平台展开合作。NVIDIA AI数据平台是一种可定制的参考设计,用于构建新型人工智能基础设施,以支持新一代代理人工智能应用和工具。这一参考设计正被全球存储系统领导者采用,以助力人工智能推理代理,并释放存储在数百万份文档、视频和PDF中的信息价值,这些信息是企业所依赖的。
NVIDIA认证的存储合作伙伴如DDN、戴尔科技、惠普企业、日立数据系统(Hitachi Vantara)、IBM、NetApp、Nutanix、Pure Storage、VAST Data和WEKA,正在推出基于NVIDIA AI数据平台的产品和解决方案。该平台涵盖了NVIDIA加速计算、网络和软件。此外,AIC、华硕、富士康、广达云科技、超微、纬创等原始设计制造商(ODM)也在开发新的支持NVIDIA参考设计的存储和服务器硬件平台。这些平台配备了DDN、戴尔科技、惠普企业、日立数据系统(Hitachi Vantara)、IBM、NetApp、Nutanix、Pure Storage、VAST Data和WEKA推出的基于NVIDIA AI数据平台的产品和解决方案,其中包括NVIDIA加速计算、网络和软件。NVIDIA RTX Pro 6000 Blackwell服务器版GPU、NVIDIA BlueField数据处理单元(DPU)和NVIDIA Spectrum-X以太网网络,均经过优化以运行NVIDIA AI Enterprise软件。这种集成使跨行业的企业能够快速部署存储和数据平台,实时扫描、索引、分类和检索大量私有和公共文件。这增强了人工智能代理在推理和规划以解决复杂多步问题时的能力。通过使用基于新AI数据平台的解决方案来构建代理人工智能基础设施,企业可以将数据转化为可操作的知识,使用检索增强生成(RAG)软件,包括NVIDIA NeMo Retrieval微服务和NVIDIA AI-Q蓝图。基于NVIDIA AI数据平台参考设计构建的存储系统,能够将数据转化为知识,在许多应用场景中提升代理人工智能的准确性,帮助人工智能代理和客户服务代表提供更快、更准确的响应。随着对数据的更多访问,代理还可以为研究人员生成复杂文档——甚至是视频——的交互式摘要,同时协助网络安全团队保持软件的安全性。
领先的存储供应商展示AI数据平台以驱动代理人工智能。存储系统领导者在提供运行人工智能代理的AI基础设施方面发挥了关键作用。在存储设备附近嵌入NVIDIA GPU、网络和NIM微服务,可以提高AI查询效率,因为计算更接近关键内容。存储提供商可以将其文档安全性和访问控制专业知识整合到内容索引和检索过程中,从而提高AI推理的安全性和数据隐私合规性。像IBM、NetApp和VAST Data这样的数据平台领导者正在使用NVIDIA参考设计扩展其AI技术。IBM Fusion是一个混合云平台,能够在Red Hat OpenShift上运行虚拟机、Kubernetes和AI工作负载,提供内容感知存储服务,解锁非结构化企业数据的意义,增强推理能力,使AI助手和代理能够提供更好、更相关的答案。内容感知存储通过结合NVIDIA GPU、NVIDIA网络、NVIDIA AI-Q蓝图和NVIDIA NeMo Retrieval微服务(均为NVIDIA AI数据平台的一部分),加快AI应用程序获得见解的时间。
NetApp正在通过基于NVIDIA参考设计的NetApp AIPod解决方案推进代理人工智能的企业存储。NetApp在其数据计算节点中集成NVIDIA GPU以运行NVIDIA NeMo Retrieval微服务,并通过NVIDIA网络将这些节点连接到可扩展存储。VAST Data正在嵌入NVIDIA AI-Q到VAST Data平台中,以提供统一的、原生AI的基础设施,用于构建和扩展智能多代理系统。凭借高速数据访问、企业级安全性以及持续学习循环,组织现在可以实现驱动更明智决策、自动化复杂工作流并解锁生产力新水平的代理人工智能系统。
ODM在AI数据平台硬件方面的创新
ODM凭借其丰富的服务器和存储设计及制造经验,正在与存储系统领导者合作,更快地为企业带来创新的AI数据平台硬件。ODM提供构建可靠、紧凑、节能且经济实惠的AI数据平台服务器所需的机箱设计、GPU集成、冷却创新和存储介质连接。ODM行业的一大市场份额由位于台湾或与台湾共址的制造商组成,这使得该地区成为推动可扩展代理人工智能、推理和AI推理硬件运行的关键枢纽。
总部位于台湾桃园市的AIC正在建造由NVIDIA BlueField数据处理单元(DPU)驱动的闪存存储服务器,与传统存储设计相比,这些服务器能提供更高的吞吐量和更大的功率效率。这些阵列被部署在许多基于AI数据平台的设计中。华硕与WEKA和IBM合作展示了下一代统一存储系统,用于AI和高性能计算工作负载,满足广泛存储需求。WEKA认证的软件定义存储解决方案RS501A-E12-RS12U克服了传统硬件限制,提供了出色的灵活性——支持文件、对象和块存储,以及全闪存、分层和备份能力。
总部位于新北市的富士康制造了许多用于AI数据平台解决方案的加速服务器和存储平台。其子公司英业达提供支持AI数据平台的NVIDIA加速GPU服务器。超微正在使用参考设计构建其由NVIDIA Grace CPU超级芯片或BlueField-3 DPU驱动的智能全闪存存储阵列。超微的PetaScale JBOF和PetaScale全闪存阵列存储服务器与软件定义存储供应商合作,支持AI数据平台解决方案。
总部也位于台湾的广达云科技正在设计和制造包含NVIDIA GPU和网络的加速服务器和存储设备。它们非常适合运行NVIDIA AI Enterprise软件并支持AI数据平台解决方案。总部位于台北的纬创和纬颖提供与AI数据平台兼容的创新硬件设计,包括NVIDIA GPU、NVIDIA BlueField数据处理单元(DPU)和NVIDIA以太网SuperNIC,用于加速计算和数据移动。
了解更多关于最新代理人工智能进展的信息,请参加NVIDIA GTC 台北,将于5月21日至22日在COMPUTEX期间举行。
(以上内容均由Ai生成)