英伟达或将推出完全组装的AI服务器,从Vera Rubin平台开始
快速阅读: 英伟达计划通过Vera Rubin平台推出完全组装的L10计算托盘,涵盖CPU、GPU等核心组件,此举将简化数据中心部署,减少OEM的设计工作,但压缩其硬件差异化空间,影响行业格局。
摩根大通认为,英伟达正准备通过从单纯销售GPU转向几乎完整的AI系统,从而在AI服务器市场占据更大份额。根据报告,这一转变的第一步将是Vera Rubin平台的推出。英伟达可能不再单独提供GPU、CPU、主板和冷却设备,而是开始交付完全组装好的L10计算托盘——这相当于AI服务器的核心部分以预建模块的形式出现。如果这一计划得以实现,将对AI硬件供应链产生重大影响。目前,原始设备制造商(OEM)和原始设计制造商(ODM)负责设计主板、工程电源布局、选择冷却方法并组装所有部件。而有了Rubin平台,英伟达可能会接手大部分工作。合作伙伴仍然会制造外部机箱、安装机架级冷却设备、连接电源架、添加管理控制器并进行系统验证。但是,最复杂的部分——消耗大部分预算的计算引擎——将由英伟达直接提供。对于OEM来说,这意味着减少了工程努力和设计风险,但也减少了硬件差异化的机会。
这一举措看起来是始于GB200平台趋势的延续,在该平台上,英伟达提供了预先装有主要组件的Bianca主板。然而,早期的设计仍允许OEM在服务器级别有一定的自由度,而一个完整的L10托盘几乎锁定了所有方面。它将包含Vera CPU、Rubin GPU、内存、网络接口卡、所有电源组件和液体冷却冷板。合作伙伴实际上将成为机架集成商而非系统设计师。
英伟达集中这些工作的背后有实际原因。预计每个Rubin GPU将消耗1.8至2.3千瓦的功率,这增加了PCB、电源网络和冷却解决方案的工程复杂性。以如此高的密度构建硬件需要专门的知识和昂贵的资格认证周期。通过将这些工作外包给大型电子制造服务(EMS)厂商,例如富士康,英伟达可以大规模生产这些托盘,同时保证一致的制造质量。
此举还将加快部署速度。超大规模数据中心运营商无需花费数月时间设计定制主板或验证热布局,只需订购托盘、将其滑入机架、连接液体冷却系统即可投入使用。反过来,英伟达将捕获原本流向ODM的更大比例收入。这是一种典型的垂直整合策略:减少延误、减少变异性,并将更多利润留在公司内部。
然而,这一转变也引发了对英伟达合作伙伴的疑问。他们的角色更多地转向了安装、车队管理和长期服务合同,而不是服务器创新。在大型数据中心环境中,这种变化仍有价值,但当所有人都提供基本相同的由英伟达制造的计算硬件时,竞争格局将发生变化。
另一个悬而未决的问题是,这对英伟达更大的机架规模雄心有何影响。围绕Rubin Ultra硬件构建的Kyber NVL576系统预计将与向800伏数据中心电源的过渡一同推出。如果英伟达开始掌握计算托盘,不难想象他们将来会进一步深入到机架级甚至机舱级的集成。
目前,这一切尚未得到官方确认。但如果摩根大通的评估正确,Rubin平台可能是英伟达不仅销售GPU,还销售几乎完整的AI服务器的关键转折点,这将立即重塑行业,尤其是对OEM的影响。
(以上内容均由Ai生成)