Google 演示具有 Gemini AI、视觉记忆和多语言功能的 Android Xr 智能眼镜
快速阅读: 据《技术点》称,谷歌在TED2025展示基于Android XR的智能眼镜原型,集多种技术于轻便设计,支持AI助手Gemini实现实时翻译、物体识别等功能。三星亦计划推出类似产品Haean,行业竞争加剧推动发展。
前瞻:可穿戴技术未来的竞争正变得愈发激烈,智能眼镜成为下一个重要领域。尽管Meta与雷朋的合作已引发广泛关注,但苹果、三星和谷歌等科技巨头也在快速推进各自的相关项目。最新进展来自谷歌,在TED2025大会上通过现场演示首次公开展示了其基于Android XR的智能眼镜。直到现在,谷歌的Android XR眼镜只出现在精心策划的预告视频和有限的手动预览中,这些内容仅分享给选定的媒体机构。这些早期展示初步体现了将人工智能融入日常眼镜的潜力,但也引发了对实际表现的疑问。这种情况在谷歌Android XR负责人沙赫拉姆·伊扎迪登上TED舞台时发生了改变——他与尼尚塔·巴蒂亚一同展示了这款原型眼镜的实际应用。
现场演示展示了这些眼镜与其他智能眼镜尝试相比的独特功能。乍一看,设备外观与普通眼镜无异。但实际上,它集成了多项先进技术,包括微型摄像头、麦克风、扬声器,以及镜片内嵌的高分辨率彩色显示屏。这些眼镜设计轻巧且低调,支持定制镜片。它们还能与智能手机连接,借助其处理能力并访问更多应用程序。伊扎迪通过眼镜在舞台上展示演讲笔记开始了演示,展示了实用的日常应用场景。不过,真正的亮点在于谷歌Gemini AI助手的集成。在一系列实时互动中,巴蒂亚展示了Gemini如何按需生成一首俳句、回忆片刻前瞥见的书名,并通过简单的语音指令和实时视觉处理找到遗失的酒店房卡。
但这些眼镜的功能远超于此。演示还展示了实时翻译功能:一个标识从英文翻译成波斯语,随后当巴蒂亚用印地语与Gemini互动时自动切换至印地语——无需手动调整设置。此外,演示还展示了其他功能,包括图表的可视化解释、情境对象识别——例如识别一张音乐专辑并提供播放歌曲的选项——以及带有3D地图叠加投影到佩戴者视野中的抬头导航。
去年12月推出的Android XR平台——由三星和高通合作开发——旨在为扩展现实设备打造开放且统一的操作系统。它让熟悉的谷歌应用进入沉浸式环境:大屏幕上显示的YouTube和Google TV、三维的Google Photos、沉浸式体验的Google Maps以及多窗口模式的Chrome。用户可通过手势、语音指令及视觉提示与应用程序互动。该平台还可兼容现有Android应用,从而从一开始便构建起强大的生态系统。
与此同时,三星计划于今年晚些时候发布自家智能眼镜,代号Haean。据称,Haean眼镜注重舒适度与隐蔽性,类似普通太阳镜,并通过摄像头和传感器实现手势操控。尽管最终规格尚未确定,但这些眼镜预计会配备内置摄像头、轻量化框架,甚至可能是高通Snapdragon XR2 Plus Gen 2芯片。正在考虑的其他功能有视频录制、音乐播放和语音通话。
随着各大科技巨头纷纷布局智能眼镜市场,这一领域的未来竞争将愈发激烈,而谷歌、三星等企业的动作无疑将推动整个行业的快速发展。
(以上内容均由Ai生成)