谷歌推Android XR眼镜,AI功能惊艳
快速阅读: 据最新消息,谷歌推出搭载显示屏的Android XR AI眼镜开发者套件,支持多模态交互与Gemini大模型,联合Xreal推进Project Aura项目,预计2026年下半年上市,加速构建空间计算生态。
日前,谷歌宣布其Android XR平台取得三项重要进展,重点推出搭载显示屏的AI眼镜开发者套件,并同步更新三星Galaxy XR与Xreal“Project Aura”设备,以提升沉浸式体验。该AI眼镜支持多模态交互,用户可通过语音指令获取环境信息、导航指引及应用服务,系统还能基于场景主动提供上下文摘要,使人机对话更自然高效。
据悉,这款AI眼镜分为两类:一类仅集成音频与摄像头,类似Meta智能眼镜;另一类则配备微型显示屏,可呈现浮动界面与视觉提示。谷歌凭借成熟的Android生态优势,将现有第三方应用、桌面小组件及硬件功能无缝迁移至XR平台。在演示中,用户通过眼镜直接调用优步应用完成叫车,系统实时投射司机信息与导航路径,展现了原生应用与可穿戴设备的高度协同。
此外,三星Galaxy XR头显新增PC Connect功能,支持与Windows电脑无线连接,实现大屏虚拟显示,适用于游戏与办公场景。而Xreal推出的Project Aura眼镜则以70度视场角、轻便佩戴体验及手势交互脱颖而出,同样基于Android XR平台,支持多窗口操作与手机应用联动。
目前,Android XR SDK开发者预览版3即将发布,全球开发者将率先获得相关硬件进行适配开发。业内分析认为,谷歌正加速构建以AI与空间计算为核心的下一代移动终端生态,有望在2026年推动消费级XR设备规模化落地。
日前,谷歌与Xreal公司联合推进的“Project Aura”智能眼镜项目引发业界关注。据悉,该产品在现有Xreal扩展现实眼镜(售价300至650美元)基础上,显著提升计算能力与软硬件集成水平,预计上市价格将接近1000美元。双方虽未公布确切发售日期,但透露产品有望于2026年下半年正式推出。
此次展示的Android XR原型系统表明,可穿戴计算设备正从概念验证迈向实际应用。谷歌依托其成熟的Android生态体系,并结合Gemini大模型技术,着力构建跨设备无缝交互体验。测试过程中,尽管部分演示版本存在偶发性卡顿或闪退——此类问题在早期开发阶段较为常见——但整体流畅度已初步体现其技术整合能力。其中,用户可在开发者套件与Project Aura设备间自然切换,凸显平台对多样终端的兼容性。
此外,谷歌强调其2026年智能眼镜战略并非营销噱头,而是基于扎实技术研发的阶段性成果。该方案旨在重构人机交互方式,使数字信息更高效融入日常生活场景。业内人士指出,此举有望加速智能眼镜从专业领域向消费市场渗透,进一步推动扩展现实产业生态发展。
(以上内容均由Ai生成)