Meta 正在测试自己的 AI 芯片以扩大其处理能力
快速阅读: 据《今日社交媒体》最新报道,扎克伯格大力投资Meta自研AI芯片,减少对英伟达依赖。Meta正测试首款自研AI训练芯片,计划扩大生产。尽管Meta拥有350,000块英伟达H100芯片,但仍计划大幅提升计算能力,部分可能来自自研芯片。这或将增强Meta的竞争优势,并带来潜在的外部销售机会。
马克·扎克伯格非常看好人工智能技术,以至于他已向脸书母公司Meta的自有芯片开发过程投资了数十亿美元,以便他的公司能够构建更好的人工智能数据处理系统,而无需依赖外部供应商。据知情人士透露:“脸书所有者Meta正在测试其首款自主研发的人工智能训练芯片,这是其设计更多自定义硅片并减少对英伟达等外部供应商依赖的关键里程碑。据知情人士透露,这家全球最大的社交平台公司已经开始小规模部署该芯片,并计划如果测试顺利将扩大生产以广泛应用。”
考虑到目前Meta拥有约350,000块英伟达H100芯片来支持其人工智能项目,每块成本约为2.5万美元。但这并不反映Meta实际支付的价格,因为它是大规模订购的。但即便如此,该公司最近宣布将在2025年增加约650亿的人工智能基础设施支出,其中包括各种数据中心扩展以容纳新的AI芯片堆栈。并且公司在最近概述其人工智能发展时可能也表明了其自有芯片将如何增加其产能。
“到2024年底,我们旨在继续扩展我们的基础设施建设,其中将包括350,000个英伟达H100芯片,这些芯片的计算能力相当于近600,000个H100芯片。”因此,假设Meta将拥有350,000个H100单元,但实际上它希望复制几乎双倍的计算能力。这部分额外容量是否来自其自有芯片?
其自身的人工智能硬件开发也可能为公司带来外部机会,尤其是在H100需求巨大且供应有限的情况下。最近,英伟达已经能够缩短H100交付的等待时间,这表明市场有所缓和。但即使没有这个外部机会,Meta能够用内部制造的芯片扩展自己的人工智能能力,这对扎克和团队来说可能是一个巨大的优势。因为处理能力已成为关键区别点,最终可能决定谁能胜出。相比之下,虽然Meta拥有350,000个H100芯片,据报道OpenAI拥有约20万,而xAI的“巨像”超算中心目前运行在200,000个H100芯片上。与此同时,其他科技巨头也在开发自己的替代品,谷歌正在开发其“张量处理单元”(TPU),而微软、亚马逊和OpenAI都在研发自己的AI芯片项目。
下一场较量可能就在关税战,美国政府对多种进口商品征收重税,以惩罚外国供应商,并(理论上)使本地企业受益。如果Meta在美国加大生产力度,这可能成为一个新优势,使其在竞争中获得进一步提升。但另一方面,正如最近的模型如DeepSeek所显示的那样,最终决定市场的可能是其应用方式,而不是处理能力。这也是推测性的,因为DeepSeek比最初看起来更得益于其他人工智能项目。但无论如何,如果计算能力确实是关键因素,Meta很可能不会落败,取决于其芯片项目的进展情况。
(以上内容均由Ai生成)