AMD展望未来:高性能CPU和GPU推动数据中心增长
快速阅读: AMD首席执行官苏姿丰表示,公司在过去十年通过不断改进和创新,重新赢得了数据中心市场的信任。本周在华尔街分析师日活动上,AMD宣布未来三到五年内,数据中心AI收入的复合年增长率将超过80%,并将在传统企业计算领域获得更大份额。
错误与成功之间存在着恶性循环与良性循环。从错误中爬起,不再犯错,并通过优秀的工程设计、辛勤工作和一点运气赶上甚至超越竞争对手,可以形成良性循环。过去十年间,英特尔在数据中心领域的困境(主要是由于其晶圆厂的问题)并未损害AMD的利益,就像十年前AMD的一系列失误没有伤害到英特尔一样。由于多个问题,AMD在十年前彻底失去了数据中心市场,并不得不像初创公司一样重新赢得CIO的信任,首先是CPU,现在是GPU以及通过收购Xilinx、Pensando和ZT Systems获得的部分网络堆栈和系统设计能力。
如今,AMD首席执行官苏姿丰及其核心管理团队表示,AMD已经准备好抓住人工智能浪潮的机会,在传统企业计算领域获得更大的份额。这是本周在纽约举办的华尔街分析师日活动上,AMD传达的主要信息。AMD不经常举办此类分析师日活动,因此这些活动对于帮助所有人同步预期和调整预测非常重要。2009年举办了第一次分析师日活动,那一年对英特尔的至强处理器来说是丰收的一年,而对AMD的皓龙处理器来说则不尽如人意。2012年,前CEO罗瑞德在活动中降低了公司的数据中心业务重点,但到了2015年,苏姿丰成为CEO,公司首席技术官马克·佩珀马斯特公布了AMD的“Zen”架构和数据中心复兴目标。2017年、2020年、2022年和现在的2025年的分析师日活动勾勒出了这一复兴路径上的里程碑,可以说AMD现在比其主要竞争对手英特尔更可靠地提供高性能CPU和GPU,并且在GPU和DPU方面成为了英伟达的可信替代者,明年开始还将进军机架规模的人工智能系统市场。
我们对FAD 2025近五小时的演讲进行了几天的思考,现在很高兴基于AMD高层本周的发言以及我们对英伟达的预期分享我们的模型。
AMD更新了其对数据中心总可寻址市场的封装及其CPU和GPU计算引擎在这整个TAM中的表现评估——这里的TAM是指销售给数据中心的芯片,而不是由此构建的系统或添加的软件。AMD销售芯片并免费提供软件,因此只计算CPU、GPU(包括其HBM内存)、DPUs、机架规模系统的扩展网络和扩展网络的DPUs。
直到现在,苏姿丰及其团队一直只针对数据中心AI加速器提供TAM和预测,以下是过去两年内所有做出的预测:
我们在6月对这些预测进行了大量分析,试图将AI训练芯片与AI推理芯片分开,并进一步估算AI推理和训练系统的收入。表格中以粗红字和粗蓝斜体字显示的是《下一代平台》为了填补空白并进一步完善和量化AMD的TAM模型所做的估计。
此次在FAD 2025上,AMD只是讨论了数据中心的整体情况,并向华尔街展示了其CPU和GPU业务的表现。以下为苏姿丰的新数据中心TAM图表:
“确定TAM总是很困难。”苏姿丰在其开场白中承认,“当我们首次讨论AI TAMS时,我们认为这个数字大约是3000亿美元,然后更新为4000亿美元,再后来是5000亿美元,我想很多人会说,‘丽莎,这似乎太高了。为什么你觉得这些数字应该这么高?’实际上,AI的发展速度超出了我们的预期,这源于与众多客户的广泛讨论,他们对计算需求的看法。”
因此,这就是AMD(在很大程度上也是英伟达)追求的TAM。(英伟达的TAM略大,因为它还销售数据中心内的扩展和跨扩展网络。但我们现在暂且忽略这一点。)
“毫无疑问,数据中心是最大的增长机会之一,而AMD在这个领域处于非常有利的位置。”苏姿丰继续说道,“我真正想强调的是,我们的战略始终非常一致。当你身处技术行业时,这种一致性至关重要,因为产品周期确实很长。这些是我们战略的支柱。我们首先致力于计算技术领导力,这是我们一切工作的基础。我们非常专注于数据中心领导力,这不仅包括硅片,还包括软件和配套的机架规模解决方案。”
苏在演讲中表示,未来三到五年内,AMD的数据中心AI收入的复合年增长率(CAGR)将超过80%,同时公司在这段时间内的服务器CPU收入份额可能超过50%,客户端CPU收入份额超过40%,FPGA收入份额超过70%。她还提到,AMD数据中心部门在未来三到五年的复合年增长率将超过60%,而核心客户端、嵌入式、定制和FPGA业务在同一时期的复合年增长率将达到10%,推动整个AMD收入的复合年增长率超过35%。最后,苏预计AMD到2025年的收入约为340亿美元,其中约160亿美元来自数据中心部门;我们认为今年其Instinct数据中心GPU销售额约为62亿美元,Epyc服务器CPU销售额约为93亿美元,其余部分为DPU和FPGA销售。
在将这些数据输入神奇的电子表格之前,我们先谈谈复合年增长率。复合年增长率的作用是取数据集的两个端点,画一条直线穿过数据集,然后计算这条直线的斜率。这是一个非常粗略的工具,完全忽略了市场自然会发生的高低起伏。特别是对于AI领域,我们认为——苏也持同样观点——未来几年的增长将高于TAM模型后期的年份。我们也认为2026年、2027年和2030年将是AI市场整体增长的好年份。我们的模型反映了这一点。
因此,不赘述了,这是AMD的模型,为了趣味,我们还加入了按日历年调整的英伟达数据中心销售数据。(记住,英伟达的财年在1月结束,所以你需要从N、N-1和N-2财年中减去1月的收入,再从N-1财年中减去N年1月的收入,并将N-2年的1月收入加到N-1年,以估算当前日历年的收入。)请看:
一些观察。似乎从数学上讲,AMD数据中心收入要实现60%的复合年增长率,而不让AMD总收入增速远超35%的复合年增长率,同时保持核心AMD业务(PC、嵌入式和FPGA)的复合年增长率为10%,是不可能的。我们的模型试图平衡这一点,同时保持数据中心AI收入机会在预测期末超过1000亿美元。
接下来,让我们谈谈CPU业务。首先,AMD计算和企业AI总经理Dan McNamara简要介绍了未来基于Zen 6和Zen 6c核心的“Venice”Epyc处理器的规格,这些处理器将于2026年推出。
当我们根据“线程密度”声明进行计算并使用1.33作为乘数时,得出Zen 6版本有172个核心,Zen 6c半缓存版本有256个核心。Zen 5版本的“Turin”Epyc 9005芯片最高配置为128个核心,Zen 5c版本则有192个核心。
McNamara还展示了另一张图表,显示了由于GPU驱动的GenAI工作负载,服务器CPU市场的复苏。我们一直认为,如果将AI系统排除在外,通用服务器市场处于衰退状态,从下面的数据也可以看出这一点:
只有高端服务器CPU的销售因AI系统的需求而保持了市场的平稳,实际上2022年至2023年间,通用服务器收入下降得更快,但得益于AI系统的CPU销售而有所支撑。(我们认为这种趋势在系统收入层面也同样存在,甚至更加明显,因为每个系统售出的GPU数量及其单位成本较高。)
今年,由于大量老旧机器需要升级并整合工作负载以提高效率,进而释放电力、空间和预算用于AI系统,通用服务器市场(及其CPU子市场)再次呈现增长态势,AMD预测这一增长将持续到2030年。然而,AI服务器CPU市场的部分预计将从2025年的约82亿美元增长到2030年的约300亿美元,这是按服务器CPU标准来看的巨大增长。
重点在于,AI工作负载需要大量的串行处理,而这需要快速且昂贵的处理器来完成。
在AMD数据中心的GPU方面,MI350和MI355X GPU正在逐步增加,但所有目光都转向了明年的MI400系列,该系列将安装在AMD与Meta Platforms合作创建的“Helios”机架上,还有不少目光看向了2027年的新一代机架,届时将配备MI500系列GPU。
以下是“Altair”MI450系列的基本规格,我们使用了代号,因为AMD不愿意为其GPU提供正式名称:
虽然在FP4和FP8精度下的浮点运算能力很重要,但更重要的是HBM4内存的容量和性能。这意味着FP16训练将获得所需的内存容量和带宽,从而比现有的GPU运行得更加高效。此外,在FP8和FP4模式下,内存带宽也将足够高,以更快地处理上下文令牌并生成回答令牌,超越目前Nvidia和AMD的GPU所能达到的速度。
据我们所知,MI400系列有三种变体,均采用台积电2纳米(N2)工艺制造,正如苏博士本周指出的那样,这是世界上首款采用该工艺的芯片。MI450旨在用于微软和Meta平台创建的八路开放式主板设计中的OAM模块,目前已被AMD和英特尔采用(但不包括Nvidia)。MI450X安装在Helios机架系统中,AMD最初推出的是配备72个GPU的Helios机架(类似于Nvidia在其“Oberon”机架中的NVL72设置),但也提供64个GPU和128个GPU的版本。MI455X是最高端的型号,我们认为它配备了432GB的HBM4内存——远超今年早些时候提到的288GB。
Helios机架在FP8精度下可提供1.45亿亿次浮点运算能力,在FP4精度下可达2.9亿亿次,配备MI455X时总共有31TB的HBM4内存和1.4PB/s的聚合带宽。作为Nvidia NVSwitch的替代方案,通过以太网实现的UALink(UALoE)扩展网络在72个GPU上提供260TB/s的聚合带宽(每个GPU 3.6TB/s),而机架外的扩展网络带宽为300GB/s。
以下是AMD在其Oberon机架上的未来Vera-Rubin计算引擎与其在Helios机架上的Venice-Altair计算引擎的对比:
这看起来相当势均力敌……对于Altair GPU的MI430X变体,除了面向正在成为AI中心的国家实验室的高性能计算中心外,其他信息很少。
我们强烈预期MI430在每单位能源和成本上的64位浮点性能会更高,但AMD如何实现这一点还有待观察。今年早些时候,AMD GPU平台副总裁布拉德·麦科迪给出了些许暗示。在我们的对话中,我们建议将芯片分解成具有不同浮点精度的计算单元,然后根据需要添加具有FP64/FP32、FP16、FP8和FP6/FP4精度的单元,同时将矢量和张量数学单元保持在不同的芯片上。他暗示AMD确实在做一些事情,但没有具体说明。
这引出了最后一张重要的图表,即AMD近期的机架规模GPU系统的未来:
随着“Verano”一代Zen 7和Zen 7c处理器的推出,AMD还将推出MI500系列——我们尚未决定其代号,因为我们将机会留给AMD自己来命名——同时继续使用为Helios机架创建的“Vulcano”代DPUs。
关于MI500系列GPU,AMD透露的信息不多,但这里有一张相对性能路线图:
如果这张图按比例绘制,那么MI500系列的峰值性能应该在FP4浮点运算能力上达到约72千万亿次,比MI455X高出80%,比刚刚开始量产的MI355X高出7.8倍。
公司确实购买的是路线图,而不是单一产品,但在某个时间点,他们需要购买一些东西才能完成工作。总是希望等待下一代计算引擎以获得更多工作量,但如果想要完成工作,就不能让这种买家的懊悔阻碍进度。AMD、Nvidia和其他公司可以依赖这一点——最终都归结于银行账户。
看看上面我们构建的表格,两家公司的收入情况就知道了。
订阅我们的通讯
直接从我们这里获取每周亮点、分析和故事,没有任何中间环节。
立即订阅
(以上内容均由Ai生成)