Pegatron 准备 1,177 PFLOP AI 机架,配备 128 个 AMD MI350X GPU
快速阅读: 据《Tom 的硬件》最新报道,纬创资通在Computex展示基于128块AMD Instinct MI350X加速卡的机架级系统,专为AI推理和训练设计,性能优于AMD自家产品,但扩展性逊于Nvidia NVL72平台。该系统预示未来基于MI400系列的产品,适合推理和多实例训练。
纬创资通在Computex展会上展示了基于128块AMD下一代Instinct MI350X加速卡的独特机架级解决方案,专为高性能AI推理和训练任务设计。这一系统比AMD自家研发的同类产品领先一代,因此对于纬创资通来说,这套系统将作为培训平台,用于构建大约一年后推出的基于AMD Instinct MI450X的IF64和IF128系统。
纬创资通的AS501-4A1/AS500-4A1机架级系统依赖于八个5U计算托盘,每个托盘配备一块AMD EPYC 9005系列处理器和四块AMD Instinct MI350X AI与HPC加速卡,用于AI与HPC任务。CPU和加速卡采用了液体冷却技术,确保在高负载下实现最大且可预测的性能。该设备采用51OU ORV3外形规格,适用于遵循OCP标准(即Meta)的云数据中心。
该设备通过400GbE网络连接不同机箱内的GPU,因为AMD尚未推出针对Infinity Fabric连接的专用交换机(无论如何,AMD Instinct目前的最大扩展域为八个处理器)。这与Nvidia的GB200/GB300 NVL72平台形成对比,后者通过公司超高速的NVLink连接互联了72个GPU。因此,从扩展性来看,Instinct MI350X系统在性能上远不及GB200/GB300 NVL72。
根据我们对AMD Instinct MI350X的了解,基于这些模块的纬创资通128-GPU机架级系统在推理方面提供了高达1,177 PFLOPS的理论峰值FP4算力,假设接近线性的可扩展性。每张MI350X支持高达288GB的HBM3E显存,该系统提供36.8TB的高速存储,能够支持超过Nvidia当前基于Blackwell的GPU容量的大规模AI模型。
然而,它依赖以太网进行GPU到GPU通信,这限制了系统的扩展性。最大扩展域为八个GPU,该系统可能更适合推理工作负载或多实例训练,而不是Nvidia NVL72系统擅长的高度同步的语言模型训练。尽管如此,它仍然是当今高性能、内存丰富的解决方案,并预示着AMD下一代Instinct MI400系列产品的到来。
**主题:Computex**
**注:** 如需了解更多GPU新闻,请持续关注Tom’s Hardware的最新动态。
**评论区:**
(此处无评论)
**作者简介:**
安东·希洛夫是Tom’s Hardware的特约撰稿人。在过去几十年里,他报道了从CPU和GPU到超级计算机以及现代工艺技术和最新晶圆厂工具到高科技行业趋势的一切。
**订阅与关注:**
– 在Google新闻上关注Tom’s Hardware以获取最新资讯。
– 订阅Tom’s Hardware时事通讯,直接接收最优质的内容。
– 关注Future品牌的其他品牌,获取更多新闻与优惠。
**特别提醒:**
欢迎随时查阅更多GPU相关报道!
(以上内容均由Ai生成)