内存巨头竞逐AI未来:HBM4成关键战场
快速阅读: 生成式AI发展面临内存带宽瓶颈,HBM4技术突破提升数据处理速度和效率,SK海力士、美光和三星竞争激烈,预计2026年实现量产。
生成式人工智能革命揭示了一个残酷的事实:如果不能有效供给数据,再强大的计算能力也毫无意义。在容纳数千个GPU的大型人工智能数据中心里,真正的瓶颈并非处理速度,而是内存带宽。
尽管工程师们数十年来一直痴迷于每秒浮点运算次数(FLOPS),但现在行业面临的新铁律是:如果无法快速移动数据,价值万亿美元的人工智能基础设施就会变成昂贵的摆设。
进入高带宽内存4代(HBM4)时代,这是一种三维堆叠内存技术,承诺提供前所未有的芯片带宽。这不仅关系到哪些公司能在人工智能领域占据主导地位,甚至可能决定一些公司的生死存亡。这不是简单的增量升级,而是能够在几周内训练出下一个突破性的人工智能模型,而不是几个月,是在每次查询都能盈利的推理与烧钱之间的区别。
今年早些时候,JEDEC完成了针对高性能人工智能的HBM4内存标准制定。新版本提供了比其前身HBM3更高的每针速度和接口宽度,目标是每针8Gbps,通过2048位接口实现每堆栈2TB/s的带宽。实际上,这意味着带宽大约是当前HBM3芯片的两倍,对于人工智能加速器来说,这是一个重大进展。
另一个改进在于容量增加。HBM4支持高达16层的堆叠(16个内存芯片键合),每个芯片的密度为24Gb或32Gb,使得单个堆栈的最大容量达到64GB。换句话说,单个HBM4模块可以存储相当于高端GPU全部内存的数据量。
尽管提高了速度,但HBM4的设计考虑了能效问题。它允许更低的I/O电压和核心电压,从而提高能源效率。这些进步直接针对生成式人工智能的需求。训练大规模语言模型或运行巨大的推荐系统时,需要不断将大量数据通过GPU移动。更快、更宽的内存减少了这一瓶颈,使每个GPU能够更快地处理数据。
然而,开发和制造HBM4面临更大的挑战。目前只有三家内存厂商——SK海力士、美光和三星——具备必要的DRAM和3D堆叠技术,能够批量生产HBM4。它们能否成功实现量产,将直接影响英伟达、AMD和博通等公司在未来GPU和人工智能加速器方面的硬件路线图。
SK海力士被视为HBM4领域的领跑者。它在HBM领域有着多个第一的记录,早在2015年就为AMD GPU供应了第一代HBM,并在HBM2、HBM2E和HBM3的供应中处于领先地位。据Counterpoint Research的数据显示,2025年第二季度,SK海力士的市场份额达到62%,显著领先于竞争对手。这种主导地位源于其与英伟达的强大联盟。
甚至在官方JEDEC规格发布之前,SK海力士就已经开始提供HBM4样品。事实上,2025年3月,它发运了全球首个12层HBM4样品,展示了其堆叠技术的成熟度。SK海力士宣布已完成HBM4设计的开发,并准备进行大批量生产。
“公司将通过及时提供满足客户在性能、功耗和可靠性方面需求的产品,确保上市时间并保持竞争力。”SK海力士HBM开发负责人Cho Joohwan表示。
到2025年9月,SK海力士确认其HBM4符合所有规格。它的运行速度为每针10GT/s,比基准的8GT/s快25%。这个10GT/s的速度等级正好满足英伟达对Blackwell代GPU的要求。SK海力士暗示,其设计可能会超过JEDEC的标准,以提供英伟达所需的性能余量。
SK海力士使用其成熟的1b DRAM工艺(第五代10纳米节点)制造HBM4 DRAM芯片。虽然这比最前沿的技术稍旧,但它具有较低的缺陷密度和更高的产量,这对于堆叠十几个芯片至关重要。至于位于DRAM层下方的基础逻辑芯片所使用的节点,SK海力士尚未公开披露。不过,有猜测认为可能是台积电12纳米级或5纳米技术。
该公司的理念似乎是“首先确保可靠工作,然后提升性能”,这与其在HBM领域保守而稳定的领导风格相吻合。截至2025年底,SK海力士已经准备好随时根据客户需求增加HBM4的生产。尽管该公司尚未宣布确切的发货日期,但所有迹象都表明,经过最终资格认证后,2026年初即可开始批量出货。
英伟达的旗舰GPU是显而易见的首选。行业报告显示,SK海力士的HBM4将首先集成到Rubin GPU平台中。此外,鉴于英伟达与SK海力士之间的密切关系,后者很可能成为2026年Blackwell GPU初期内存模块的主要供应商。这使得SK海力士在大规模供应HBM4方面处于领先地位。
SK海力士的市场领先地位也转化为今年显著的财务收益。2025年第二季度,该公司报告称其销售额中有77%与HBM及相关AI内存相关。尽管目前占据主导地位,但供应HBM4的竞争尚未结束。竞争对手正在全力追赶。
竞争对手的崛起
美光在HBM领域起步较晚。在过去一年中,该公司市场份额超越三星,达到21%,而三星为17%。这一进展意义重大,因为几年前美光几乎没有HBM市场存在感。推动这一变化的催化剂是生成式AI需求激增。
美光的成功主要建立在HBM3E上。公司与多家客户签订了供货协议,其中包括六家涉及GPU和加速器的HBM客户。美光得以成为英伟达AI GPU的供应商,原因是英伟达历来从两家供应商采购内存以确保冗余,美光因此获得了与SK海力士并列的一席之地。
美光接近售罄2026年的高带宽内存
美国政府不希望三星、SK海力士在中国制造存储芯片
与OpenAI合作,不存在忠诚度——只为计算成本
SK海力士可能已经售出明年计划生产的大部分HBM DRAM
预计到2025年底,美光的HBM业务将大幅扩张。公司在2025年9月季度报告称,HBM业务收入接近20亿美元。这意味着HBM从一个利基产品迅速成长为公司总收入的两位数百分比。美光甚至表示,其2025年全年HBM产量已全部售罄,2026年的订单也基本预订完毕。
借着这一势头,美光于2025年6月开始向关键客户发货HBM4样品,提供36GB、12层堆叠技术,据报道其中一个客户是英伟达。过去几个月,美光进一步改进了硅片。到2025年第四季度,美光宣布其HBM4样品的速度超过每针11Gbps,每堆栈传输速度超过2.8TB/s。
美光的HBM4预计将于2026年进入量产阶段。公司已获得2026年HBM3E的数十亿美元订单,主要买家包括云巨头和GPU供应商,这些企业都将美光视为2026年供应链的一部分。鉴于英伟达预计会从SK海力士和美光双重采购Blackwell的内存,如果SK海力士无法满足所有需求,或英伟达需要第二个来源的灵活性,美光将填补这一缺口。
突破极限
参议员提议美国人优先购买GPU,限制向其他国家销售
三星在HBM4竞赛中处于追赶状态。尽管其制造能力强大,但在早期HBM代际竞争中落后。
三星的问题在HBM3E上变得明显。当SK海力士和美光为客户提供8层和12层HBM3E时,三星却难以通过12层堆叠的资格认证。据报道,三星用了18个月多次尝试才达到英伟达对HBM3E的质量和性能要求。截至2025年第三季度,三星终于通过了英伟达的验证,其第五代12层HBM3E通过了所有测试。
迄今为止,三星的HBM仅出现在AMD的MI300系列加速器中。然而,在获得英伟达认证后,三星同意向液冷AI服务器供应3万至5万台12层HBM3E。三星的HBM3E自2025年中期也开始用于AMD的加速器。
三星面临的一个主要挑战是,他们试图使用最先进的1c DRAM工艺(第六代10纳米节点)来生产12层HBM3E和即将推出的HBM4,但遇到了良率问题。截至2025年7月,1c工艺的试产良率仅为65%,这对量产来说是一个大问题。三星不得不重新校准和修订DRAM设计,改善基底芯片,并提高热管理。
三星计划在2026年上半年开始HBM4的大规模生产。2025年第三季度,公司开始向英伟达大量发送HBM4样品进行早期认证。不过,三星还有一个战略王牌,即与AMD(及OpenAI)的深化合作。2025年10月,有消息称AMD已签署一项重要协议,向OpenAI供应Instinct MI450 GPU系统。据报道,三星是AMD MI450加速器HBM4的主要供应商。
最终,HBM4的供应竞赛并非零和游戏。三家供应商都将竭尽全力提供高性能内存模块以支持生成式AI的发展。真正的赢家将是那些能够克服技术挑战并实现规模化生产的企业。
为了更广泛的市场利益,三家供应商都取得成功将是最理想的局面。这将缓解严格的限制条件,增加研究人员和企业手中的AI能力。无论如何,2026年将是这场内存竞赛的关键一年。谁能在产量上首先取得突破,将揭示谁真正赢得了这一轮竞争,以及哪些企业的AI产品计划可能因押注于落后者而需要调整。®
赞助:谷歌云上的生成式AI。免费开始使用。
(以上内容均由Ai生成)