Oracle 为 AI 和推理模型部署 NVIDIA Blackwell GPU
快速阅读: 据《快速模式》称,甲骨文在OCI上部署了首批液冷NVIDIA Grace Blackwell NVL72机架,提供高速网络和全面集成,计划构建全球最大Blackwell集群。此举加速AI创新,支持多种工作负载,助力全球推理任务和加速计算需求。
甲骨文在其数据中心部署并优化了首批采用液冷技术的NVIDIA Grace Blackwell NVL72机架。数以万计的NVIDIA Blackwell GPU已投入运行,并在NVIDIA DGX云和甲骨文云基础设施(OCI)上可供客户使用,用于开发和运行下一代推理模型及人工智能代理。
甲骨文最先进的Grace Blackwell部署包括高速NVIDIA Quantum-2 InfiniBand和NVIDIA Spectrum-X以太网网络,以实现可扩展且低延迟的性能,同时还整合了来自NVIDIA和OCI的全套软件与数据库集成。作为全球规模最大、增长最快的云服务提供商之一,OCI是最早部署NVIDIA Grace Blackwell NVL72系统的公司之一。该公司计划建立一个世界上最大的Blackwell集群。OCI超级集群将扩展至超过10万个NVIDIA Blackwell GPU,以满足全球对推理任务和加速计算日益增长的需求。
随着包括OpenAI在内的多家公司在过去几周内发布新的推理模型,人工智能创新的步伐仍在加快。OCI的安装是NVIDIA Grace Blackwell系统在全球范围内上线的最新例证,这些系统正在将云数据中心转变为大规模制造智能的“人工智能工厂”。
这些新的人工智能工厂借助NVIDIA Grace Blackwell NVL72平台,这种机架级系统结合了36个NVIDIA Grace CPU和72个NVIDIA Blackwell GPU,为由先进人工智能推理模型驱动的代理人工智能提供了卓越的性能和能效。OCI提供了灵活的部署方案,可通过OCI专属区域和OCI合金,在公共云、政府云、主权云以及客户自有数据中心中向客户提供Blackwell。
许多客户计划立即在OCI Grace Blackwell系统上部署工作负载,其中包括主要的技术公司、企业客户、政府机构及承包商,以及区域性云服务提供商。这些新机架是NVIDIA DGX云推出的首批系统,是一个经过优化的平台,具备软件、服务和技术支持,可在领先的云(如OCI)上开发和部署人工智能工作负载。NVIDIA将利用这些机架开展各类项目,包括训练推理模型、自动驾驶汽车开发、加速芯片设计和制造,以及开发人工智能工具。
Grace Blackwell NVL72机架现已在DGX云和OCI上正式上线并可供使用。思科执行副总裁兼首席产品官杰图·帕特尔表示:“如今正是企业推进人工智能发展的良机,但解锁创新应用场景并实现广泛普及的关键在于安全保障。”NVIDIA和思科正在为企业提供所需的基础设施,以自信地扩展人工智能,同时保护他们最宝贵的数据。
(以上内容均由Ai生成)