Meta发布“意念控制”腕带 研究成果登上Nature
快速阅读: 据相关媒体最新报道,Meta发布新型非侵入式sEMG腕带,通过肌电数据实现精准手势识别,无需校准,适用于多种设备,提升人机交互体验。
据36氪报道,7月23日,Meta现实实验室(Reality Labs)在《自然》杂志上发表论文,介绍了一种用于人机交互的通用非侵入式神经运动接口。该接口基于表面肌电图(sEMG),以腕带形式呈现,无需手术即可精准捕捉手腕部位的神经信号,识别多种手势意图,即使在手部自然下垂状态下也能实现隐蔽操作。
与传统输入设备不同,这款腕带摆脱了对中间设备的依赖,不受动作遮挡影响,无需定制解码器,适用于不同人群。研究团队基于300多名受试者的超过100小时肌电数据,开发出高度适应性的机器学习模型,无需个人校准即可实现高精度手势识别,少量个性化数据可将笔迹识别准确率提升16%。
Meta在2023年通过Orion AR眼镜原型完成了早期技术验证。研究团队从硬件和模型两方面入手,研发了一款高灵敏度、易佩戴的sEMG腕带,采用干电极、多通道记录设计,采样率达2kHz,噪音低至2.46μVrms,续航超过4小时,有四种尺寸适应不同腕围。电极布局经过优化,能精准捕捉手腕、手部和前臂肌肉的电信号,甚至可检测到单个运动单位动作电位(MUAPs)。
在数据收集与模型训练方面,团队构建了可扩展的数据收集基础设施,从数千参与者获取训练数据,开发出通用的sEMG解码模型。模型采用多种深度学习架构,适应不同交互场景需求。在模型训练阶段,研究人员运用了迁移学习等先进技术,加速模型收敛,提升泛化能力和准确性。
在连续导航任务中,sEMG的闭环手势解码中位数性能为0.66次/秒;在离散手势任务中,手势检测速率达0.88次/秒;戴sEMG腕带的测试者,手写输入速度可达20.9字/分钟,个性化调整后,手写模型的解码性能可进一步提升16%。这些模型在不同人群中表现良好,离线评估中,对手势和手写的分类准确率超过90%,手腕角度速度解码误差小于13°s−1。
研究团队在不同年龄、性别、身体状况的志愿者群体中进行了广泛测试,验证了该神经运动接口的通用性和可靠性。未来,这项技术有望应用于智能手机、智能手表、智能眼镜等移动设备,实现无缝输入,尤其适合在移动场景中使用,解决传统输入方式的局限性。此外,该技术还可为行动不便者提供新的交互方式,用于临床诊断和康复治疗,探索新型控制方式,甚至为脑机接口等领域提供借鉴。
Meta在2023年通过Orion AR眼镜原型完成了技术的前期验证,2025年核心研究成果正式被顶级学术期刊《自然》收录发表。这项技术有望从专业AR设备逐步拓展成为通用电子设备的交互标准,最终实现“让计算机理解人类手势”的技术愿景。这种以人为中心的交互理念,或将重新定义下一代人机交互范式。
(以上内容均由AI生成)