苹果考虑外部 AI 合作伙伴以提升 Siri 的智能性——据报道,Anthropic 和 OpenAI 正在进行早期谈判以取代内部模型
快速阅读: 《Tom 的硬件》消息,苹果考虑采用外部AI模型提升Siri,或于2026年发布。目前Siri部分功能依赖OpenAI,但苹果仍掌控助手。使用第三方模型或助其追赶竞争对手。
这将是对苹果的一次重大改变。目前,苹果正在使用其内部的苹果基础模型来支持其苹果智能AI功能。据报道,这家位于美国加利福尼亚州库比蒂诺的公司已与两家公司进行了接触,讨论训练他们的模型,使其能够在苹果的云基础设施上运行。苹果尚未决定是否采用外部模型,据报道,他们仍在开发一个使用自己模型的Siri版本。
一个具备AI功能的Siri版本预计将于2026年发布,这比原本计划在iOS 18、iPadOS 18和macOS 15中发布的版本有所延迟。苹果已经为某些Siri功能使用了OpenAI,例如回答搜索查询和生成内容。但这些功能实际上是一个需要手动开启的插件,而苹果仍然控制着它的助手。
使用Anthropic或OpenAI的模型可能帮助苹果重新获得人工智能领域的影响力,并赶上一些其他硬件制造商所做的努力。但这些功能实际上是一个需要手动开启的插件,而苹果仍然控制着它的助手。例如,三星有自己的Galaxy AI功能,但也使用了谷歌的Gemini(整个界面都依赖于它,而不仅仅是模型本身)。
还有报道称,苹果曾考虑直接收购Perplexity公司。苹果去年推出了iPhone 16,称其为“专为苹果智能打造”,但此后似乎在人工智能领域陷入困境,因为苹果将Siri从人工智能负责人John Giannandrea转交给了软件工程主管Craig Federighi,以及Siri负责人Mike Rockwell(他之前推出了Vision Pro)。
彭博社表示,在一些科技公司正积极招募人才并愿意开出高薪之际,转向外部人工智能模型正在打击人工智能团队的士气。苹果智能和Siri不仅限于iPhone,它们也适用于iPad和Mac。随着Siri的变动,Giannandrea也失去了苹果的机器人部门。
据报道,Siri的延迟还导致了一款新的硬件推迟发布,这款设备是HomePod与iPad的结合体,可以作为家庭助手,类似于亚马逊的Echo Show。苹果自研的模型短期内似乎不会退出舞台。在WWDC上,该公司宣布今年将向开发者开放其本地设备模型,如用于Genmoji和写作工具的模型,允许第三方开发者利用其自有工具开发AI功能。
但这些本地模型虽然更注重隐私,但运行速度较慢,且在性能上仍不及云端竞品(苹果确实有一些用于基于云端请求的服务器)。在苹果的服务器上运行第三方模型可能会让苹果同时拥有两种世界的优势,既强调用户隐私,又能帮助它在人工智能竞赛中迎头赶上。
(以上内容均由Ai生成)