Meta 测试内部 AI 芯片以减少对 Nvidia 的依赖
快速阅读: 《塞浦路斯邮政》消息,Meta正测试首款自研AI训练芯片,旨在减少对英伟达等外部供应商的依赖。这款节能高效的芯片由Meta与台积电合作生产,已进入小范围测试阶段。Meta计划若测试成功将扩大生产,目标是到2026年用自家芯片进行AI训练和推理。
脸书母公司Meta正在测试其首个自主研发的人工智能系统训练芯片,这是其减少对外部供应商(如英伟达)依赖的重要里程碑。据两位知情人士向路透社透露,这家全球最大的社交媒体公司已经开始小范围部署这款芯片,并计划在测试顺利后扩大生产规模,全面应用。
开发内部芯片的举措是Meta长期规划的一部分,旨在降低其庞大的基础设施成本。作为一家涉足Instagram和WhatsApp的企业,Meta预计2025年的总支出将在1140亿至1190亿美元之间,其中高达650亿美元的资本支出主要用于人工智能基础设施的投资。
其中一位知情人士指出,Meta的新训练芯片是一款专用加速芯片,专为处理人工智能相关任务设计。相比通常用于人工智能工作的集成图形处理器(GPU),这款芯片更加节能高效。该人士提到,Meta正与台湾芯片制造商台积电合作生产这款芯片。在Meta完成芯片首次流片后,测试部署随即启动,这是一个重要的里程碑,涉及将初步设计发送至芯片工厂。另一位知情人士表示,一次典型的流片成本达数千万美元,通常需要三到六个月才能完成,且无法保证测试一定会成功。如果测试失败,Meta需要诊断问题并重新流片。
Meta和台积电均未对此发表评论。这款芯片属于Meta训练和推理加速器(MTIA)系列的最新产品。多年来,该计划起步并不平稳,甚至在某个阶段废弃了一款处于类似发展阶段的芯片。然而,去年Meta开始使用一款MTIA芯片执行推理任务,即用户与AI系统交互时所涉及的运行过程,例如Facebook和Instagram新闻推送中推荐系统的内容筛选。
Meta高管表示,他们希望到2026年能够开始使用自家芯片进行训练,即向人工智能系统提供大量数据以“教导”其如何运作的高计算量过程。同样适用于推理芯片,高管们表示,训练芯片的目标也是首先应用于推荐系统,随后推广至生成式人工智能产品,如Meta AI聊天机器人。
“我们正在研究如何为推荐系统进行训练,最终如何思考生成式人工智能的训练和推理。”Meta首席产品官克里斯·考克斯上周在摩根士丹利技术、媒体和电信大会上表示。考克斯将Meta的芯片开发努力描述为“循序渐进的过程”,但他强调公司认为第一代推荐系统推理芯片是一个“重大成果”。
此前,Meta在其内部定制推理芯片的小规模测试失败后放弃了该项目,转而在2022年斥资数十亿美元订购Nvidia GPU。自此,这家社交媒体公司一直是Nvidia最大的客户之一,积累了大批GPU用于训练模型,包括推荐系统、广告系统及其Llama基础模型系列。这些单元还为每天超过30亿用户提供推理服务。
今年,随着越来越多的人工智能研究人员对通过不断增加数据和计算能力来“扩展”大型语言模型的进步空间产生质疑,这些GPU的价值受到了挑战。这种质疑因中国初创企业深势科技在一月底推出的新低成本模型而进一步增强,这些模型通过更依赖推理而非大多数现有模型优化计算效率。在深势科技引发的全球人工智能股票抛售中,英伟达的股价一度下跌约五分之一。之后,投资者押注其芯片仍将是行业标准,尽管由于更广泛的贸易担忧,股价再次下跌。
(以上内容均由Ai生成)