苹果新Siri秘密采用谷歌Gemini模型,大幅提升AI能力
快速阅读: 苹果计划在明年春季随iOS 26.4发布新版Siri,采用谷歌Gemini模型,增强个人问题解答能力,包括查询规划、知识搜索和摘要生成功能,提升用户体验,预计3月或4月推出。
苹果计划在明年春季发布的iOS 26.4中推出新版Siri更新。据马克·古尔曼透露,新Siri体验将大量采用谷歌Gemini模型。这些定制的Gemini模型将在苹果的私有云计算服务器上运行,以帮助完成用户请求。苹果承诺,新的Siri能够回答诸如“查找妈妈推荐的书”这样的个人问题,通过搜索设备上的数据并即时生成合适的回应来实现。
根据彭博社此前报道,新的Siri架构将包括三个独立组件:查询规划器、知识搜索引擎和摘要生成器。谷歌Gemini模型将在苹果服务器上运行,提供规划和摘要功能。为了保护用户隐私,谷歌模型将在苹果的服务器基础设施上运行,不会共享任何外部数据,设备上的个人数据可能将使用苹果自己的基础模型进行处理。
新的知识搜索引擎也可能由Gemini模型驱动,这将使Siri具备对世界话题和趣闻的理解能力,允许苹果的语音助手无需依赖第三方集成(如表现不佳的ChatGPT集成)或退回到基本的网络搜索结果,就能回答更多的一般知识问题。
尽管Gemini模型的后端实施将非常广泛,但彭博社称,苹果预计不会公开宣传这一合作。Gemini模型将秘密地在幕后支持Siri的部分功能。所有新的Siri功能都将被宣传为苹果的技术,在苹果服务器上运行,并通过苹果用户界面呈现。这项协议将帮助苹果填补其自身大型语言模型系统目前存在的关键技术空白。
这种安排与三星在其Galaxy手机上所做的类似,许多所谓的“Galaxy AI”功能实际上是围绕谷歌Gemini功能构建的轻量级封装。这一合作是苹果的一个务实选择,有助于其实现一年前承诺推出的Siri AI功能。最终,消费者并不关心实现细节,他们只希望iPhone能拥有预期的功能。
目前预计,苹果将在明年春季,随iOS 26.4的发布一起宣布新版Siri的推出,时间可能是3月或4月。此外,苹果还准备推出一款新的智能家居显示器,该设备将利用新的人工智能助手功能。
(以上内容均由Ai生成)