Google I/O 2025 推出每月 250 美元的 AI 订阅
快速阅读: 据《福布斯》最新报道,谷歌I/O 2025聚焦AI,推出Gemini 2.5和AI Ultra订阅,强化AI助手商业化;展示Android XR平台及智能眼镜,与Meta竞争;推出Imagen 4和多模态代理Astra,预示未来趋势。
法新社通过盖蒂图片社发布
在今天的年度开发者大会——谷歌I/O 2025上,最引人注目的不是一场充满未来感的演示,也不是另一轮聊天机器人的更新,而是一个价格标签。谷歌的新AI Ultra订阅费用为每月249.99美元,提供对其最强大的Gemini模型的早期访问权限、工具以及不断增长的自动化功能。这个价格使其成为市场上最昂贵的固定费率AI订阅之一。不过,类似的高价订阅并非孤例,OpenAI的Pro计划和Anthropic的Claude Max层级计划同样每月收费200美元。但谷歌的独特之处在于其服务的全面捆绑。
在谷歌I/O 2025的主题演讲中,最重大的宣布并不是一场炫酷的技术展示或聊天机器人的升级,而是一个价格标签。谷歌全新推出的AI Ultra订阅服务,每月费用为249.99美元,用户能够提前体验到其最强大的Gemini模型、相关工具以及日益丰富的自动化功能。这一价格使其成为市场中定价最高的固定费率AI订阅之一。然而,类似的情况并非罕见,OpenAI的Pro计划和Anthropic的Claude Max层级计划同样每月收费200美元。不过,谷歌的与众不同之处在于其服务的捆绑策略。
Ultra AI计划包括公司最好的Gemini模型、对实验性工具的访问权限、30TB的云存储空间以及YouTube Premium——所有这些都被整合进一个面向开发者和高级用户的公开宣传计划中。这也标志着谷歌希望将Gemini定位为一个独立的、可盈利的产品,而不仅仅局限于搜索引擎和Workspace背后的核心动力。此外,谷歌还公布了一系列专注于AI和硬件的公告。
—
**Android XR为Meta带来竞争**
在今年早些时候的移动世界大会上亮相。新华社通过盖蒂图片社发布
谷歌I/O 2025在硬件新闻方面相对低调,但公司确实展示了其Android XR平台。XR,即扩展现实,涵盖了增强现实(AR)、虚拟现实(VR)和混合现实(MR),这些技术通过头戴设备或智能眼镜将数字内容与现实世界相融合。新的Android XR平台旨在支持这一系列体验,从三星即将推出的Moohan头显开始。这款头显由谷歌和高通联合开发,是一种完全沉浸式的设备,外形类似于VR头显,专为娱乐、生产力和AI辅助交互而设计。
谷歌I/O 2025在硬件新闻方面相对低调,但公司确实展示了其Android XR平台。XR,即扩展现实,涵盖了增强现实(AR)、虚拟现实(VR)和混合现实(MR),这些技术通过头戴设备或智能眼镜将数字内容与现实世界相融合。预计于今年晚些时候发布,它将运行Android XR,并深度集成Gemini以实现导航、指引和虚拟环境中的实时帮助。
谷歌I/O 2025在硬件新闻方面相对低调,但公司确实展示了其Android XR平台。XR,即扩展现实,涵盖了增强现实(AR)、虚拟现实(VR)和混合现实(MR),这些技术通过头戴设备或智能眼镜将数字内容与现实世界相融合。谷歌还预览了一系列与Gentle Monster、Xreal和Warby Parker合作开发的Android XR智能眼镜。这些眼镜集成了麦克风、摄像头和显示屏,用于实现如实时翻译、物体识别和视觉叠加等功能——所有这些都由Gemini驱动。与早期的Google Glass原型不同,这里更注重消费级的时尚设计,旨在让AI可穿戴设备融入日常生活。这些XR公告使谷歌更直接地与Meta竞争,后者已通过其Ray-Ban Meta智能眼镜进入消费者市场,支持免提图像捕捉、音频播放和与Meta AI的集成等功能。Meta还在开发一款更先进的AR头显,代号为Orion,预计将深入沉浸式空间计算领域。
谷歌还预览了一系列与Gentle Monster、Xreal和Warby Parker合作开发的Android XR智能眼镜。这些眼镜集成了麦克风、摄像头和显示屏,用于实现如实时翻译、物体识别和视觉叠加等功能——所有这些都由Gemini驱动。与早期的Google Glass原型不同,这里更注重消费级的时尚设计,旨在让AI可穿戴设备融入日常生活。这些XR公告使谷歌更直接地与Meta竞争,后者已通过其Ray-Ban Meta智能眼镜进入消费者市场,支持免提图像捕捉、音频播放和与Meta AI的集成等功能。Meta还在开发一款更先进的AR头显,代号为Orion,预计将深入沉浸式空间计算领域。
—
**Imagen 4:高级AI图像生成**
AI图像生成工具是最易获取、主流的人工智能应用之一,正如ChatGPT的AI图像生成器更新所展示的那样。在I/O 2025上,谷歌推出了Imagen 4,这是迄今为止最先进的文本到图像模型,承诺在图像质量上有显著提升,例如以惊人的真实感渲染织物、水滴和动物皮毛等复杂细节。另一个亮点功能是其增强的在图像内生成准确且易读文本的能力,解决了先前模型的一个常见限制。这一进步使Imagen 4特别适用于需要精确排版的视觉创作,如海报、贺卡和幻灯片。
—
**项目Astra:多模态代理原型**
在I/O现场展示的多模态代理原型Astra可以说是主题演讲中最未来感的部分。将手机对准杂乱的办公桌,Astra可以描述它看到的内容,从环境中提取相关信息并保持持续的语音对话。演示让人回想起早期关于AR助手和计算机视觉的炒作,但Astra的实时理解和上下文意识使其脱颖而出。它不仅识别对象,还在推理它们,结合视觉输入、记忆和音频,表现得更像是一个持久的助手,而不是一个反应性的聊天机器人。Astra尚未准备好广泛发布,但其中的一部分——包括增强的视觉理解能力——将在今年晚些时候推出到Gemini应用程序和Android系统中。
—
**搜索中的AI模式已上线**
谷歌搜索中的新AI模式现在已在美国对所有用户开放。现在,用户不再看到十个蓝色链接,而是呈现由AI撰写的摘要、上下文解释和引用——这一举措显然是为了减少人们转向ChatGPT或Perplexity寻求即时答案的倾向。但这一变化也给谷歌有利可图的业务带来了风险。由于搜索广告仍占字母表公司收入的很大一部分,用AI答案取代基于链接的查询减少了可点击广告位的数量。谷歌正在这些AI摘要内试验新的广告格式,但平衡难度很大。谷歌希望通过AI吸引更多搜索用户。赌注是当答案更丰富、互动性更强时,用户会提出更复杂、高价值的问题——并且广告商也会跟进。
—
**Gemini 2.5:更高级的AI**
谷歌的DeepMind团队声称Gemini 2.5 Pro是其最先进的AI,具有出色的推理任务性能,并明确强调了代码生成和调试能力。在内部基准测试中,它在几个软件开发测试中超过了OpenAI的GPT-4,并引入了一种实验性的Deep Think模式,允许模型逐步推理复杂问题。效率也得到了提高,轻量级的Gemini变体比前一版本快22%,使其更适合集成到移动和边缘应用中。考虑到谷歌整个操作系统和硬件堆栈——从Android到Pixel再到Chrome OS——都在围绕嵌入式AI助手重新设计,这是一个关键发展。
—
**谷歌Beam:高端3D视频通话系统**
谷歌还展示了Beam,这是一款高端的3D视频通话系统,来自其正在进行的Project Starline。该系统使用深度传感器和AI驱动的渲染来重现虚拟面对面的互动。最初的目标是企业用途,惠普作为硬件合作伙伴,融入了谷歌更广泛的通过AI增强协作重新构想远程工作的努力。Beam体现了谷歌对AI的看法,不仅将其视为一种生产力工具,而且是让虚拟互动感觉更人性化的手段。它还表明,尽管谷歌在Pixel设备方面的信息传递明显缺席,但它并未放弃对高端硬件的追求。
—
**谷歌I/O 2025:未来展望**
总体而言,谷歌I/O 2025看到了一些硬件公告(有些更加具体化),但真正的焦点,不出意外,还是在AI上。主题演讲强化了Gemini的地位,不再仅仅是测试平台——它现在嵌入产品中,打包成订阅,并与谷歌未来赚钱的方式紧密相连。关于使用限制、开发者采用率以及消费者是否会坚持某个助手等问题仍然存在许多未知数。但谷歌已经果断行动,时间将告诉我们其战略在与其他玩家的竞争中占据优势。
(以上内容均由Ai生成)