苹果拟每年支付约13亿美元使用谷歌AI技术升级Siri
快速阅读: 苹果计划采用谷歌1.2万亿参数AI模型升级Siri,预计2026年推出新功能,年付10亿美元。此合作为过渡方案,旨在弥补苹果AI技术短板,直至自研模型成熟。
洛杉矶 —— 据知情人士透露,苹果公司计划采用谷歌开发的1.2万亿参数的人工智能模型,以助力其长期承诺的Siri语音助手升级。经过长时间评估后,双方正在敲定一项协议,苹果每年将为此支付约10亿美元(约合13亿新元)以获取谷歌的技术使用权。
苹果希望借助谷歌的技术重建Siri的基础架构,为2026年推出一系列新功能铺平道路。谷歌模型的1.2万亿参数——衡量AI软件复杂度的标准——远超苹果现有模型的水平。此前,苹果曾考虑使用其他第三方模型来完成这项任务,但在测试了Gemini、OpenAI的ChatGPT以及Anthropic的Claude后,最终于2025年初确定选择谷歌。据《彭博社》报道,苹果希望利用这项技术作为过渡方案,直到自家的模型足够强大。
新的Siri预计将于明年春季推出,《彭博社》称,尽管距离发布还有数月时间,但计划和合作关系仍可能发生变化。苹果和谷歌的发言人拒绝置评。
这一被称为“Glenwood”的项目,旨在通过第三方模型修复Siri,由Vision Pro头显的创造者迈克·洛克韦尔和软件工程主管克雷格·费德里吉领导。计划在iOS 26.4版本中推出的全新语音助手代号为“Linwood”。根据协议,谷歌的Gemini模型将负责Siri的信息汇总和规划功能,即帮助语音助手整合信息并决定如何执行复杂任务。部分Siri功能将继续使用苹果的内部模型。
该模型将在苹果自己的私有云计算服务器上运行,确保用户数据不会泄露至谷歌的基础设施中。苹果已分配AI服务器硬件以支持模型运行。尽管此次合作意义重大,但苹果可能不会公开宣传,而是将其视为幕后技术支持供应商,不同于两家公司在Safari浏览器上的合作,后者让谷歌成为默认搜索引擎。
此次协议也独立于之前关于将Gemini直接集成到Siri作为聊天机器人的讨论。这些讨论曾在2024年和2025年初接近实现,但最终未能成为具体功能。此外,该协议并未将谷歌AI搜索整合进苹果的操作系统中。在最近一次财报电话会议上,首席执行官蒂姆·库克表示,Siri未来可能会提供更多的聊天机器人选项,而不仅仅是当前的ChatGPT选项。
苹果并非唯一一家采用Gemini来驱动AI功能的公司,Snap和其他几大公司也在基于谷歌的Vertex AI平台构建产品。然而,对于苹果而言,此举标志着承认其在AI领域落后,并愿意依赖外部技术来迎头赶上。尽管如此,苹果并不打算将Gemini作为长期解决方案。由于公司流失了许多AI人才,包括模型团队负责人,管理层仍致力于开发新的AI技术,目标是在2026年前推出一个1万亿参数的云基模型,以供消费者应用。
为了实现这一目标,公司的模型团队正在努力开发一个1万亿参数的云基模型,希望能在2026年准备好面向消费者的应用。苹果高管认为,他们可以达到与定制版Gemini相当的质量水平,但谷歌仍在不断改进Gemini,追赶起来并不容易。目前,Gemini 2.5 Pro版本在大多数大型语言模型排行榜上名列前茅,是生成式AI的基础。
苹果还致力于将Apple Intelligence和新版Siri引入中国。由于中国长期以来禁止谷歌服务,本地化的Siri升级版很可能不会依赖Gemini。定制版Apple Intelligence将使用内部模型,加上阿里巴巴集团控股开发的过滤层,以满足中国政府的要求。此外,苹果也在考虑与中国百度公司在AI领域的合作。
《彭博社》
(以上内容均由Ai生成)