AI 驱动的大脑植入物为瘫痪患者恢复实时语音
快速阅读: 据《AZoAI》称,加州大学伯克利分校在神经技术领域取得突破,利用AI将大脑信号几秒内转化为语音,帮助失语者实现自然交流。研究解决了语音延迟问题,得到多机构支持。
**加州大学伯克利分校工程学院在神经技术领域取得里程碑式进展**
2025年4月1日,加州大学伯克利分校工程学院宣布在神经技术领域取得了突破性进展。科学家们利用人工智能将大脑信号在数秒内转化为语音,为丧失说话能力的人群开辟了无缝交流的可能性。
**技术报告:一种流式脑至语音神经修复装置以恢复自然沟通**
图片来源:MattL_Images / Shutterstock
加州大学伯克利分校和加州大学旧金山分校的研究团队在脑机接口(BCI)领域取得了重大突破,成功解锁了一种为严重瘫痪患者恢复自然语言表达的方法。这项研究解决了语音神经修复装置中长期存在的延迟问题,即受试者试图说话与声音产生之间的时间差。
通过近期人工智能建模的最新进展,研究人员开发出一种流式方法,可近乎实时地将大脑信号合成为人可听的语音。研究成果发表于《自然·神经科学》期刊,并由美国国立卫生研究院下属的国家耳聋及其他交流障碍研究所(NIDCD)资助。
“我们的流式方法为神经修复装置带来了如Alexa和Siri那样的快速语音解码能力,”加州大学伯克利分校电气工程与计算机科学助理教授、研究联合首席研究员高帕拉·阿努曼奇帕利表示,“使用类似算法,我们首次实现了接近同步的语音实时流传输。结果是更自然流畅的语音合成。”
“这项新技术对改善严重瘫痪影响语言的患者生活质量具有巨大潜力,”神经外科医生爱德华·张补充道,他是该研究的高级联合首席研究员。“令人兴奋的是,最新的AI进步正在极大地加速BCI的实际应用。”
研究人员还表明,他们的方法可以很好地与其他类型的脑信号传感接口结合使用,包括穿透大脑表面的微电极阵列(MEA),或非侵入性的面部传感器记录(sEMG)。
“通过在其他无声语音数据集上展示准确的大脑至语音合成,我们证明了这种方法并不局限于特定设备类型,”加州大学伯克利分校电气工程与计算机科学系博士生、研究联合第一作者凯洛·利特尔约翰说。“只要信号良好,同一算法可用于不同模式。”
**将大脑信号解码为语音**
根据联合第一作者、加州大学伯克利分校电气工程与计算机科学博士生崔哲俊的说法,这种神经修复装置通过从控制语言产生的运动皮层采集大脑信号工作,然后利用人工智能将脑功能解码为语音。
“我们本质上是在拦截思想转化为言语表达时的信号,并在这一过程中间捕获运动控制,”他说。“因此,我们解码的是在思考之后、决定说什么以及如何移动发声肌肉之后的内容。”
为了训练他们的算法,研究人员首先让参与者安妮(Ann)看屏幕上的提示语,比如“嘿,你好吗?”然后让她默默尝试说出这句话。
“这给了我们一个映射,即她生成的大脑信号窗口片段与她试图表达的目标句子之间的关系,而无需她在任何时刻发声,”利特尔约翰说。
由于安妮没有剩余的发声能力,研究人员无法获得目标音频或输出来映射大脑信号和输入。他们通过使用人工智能填补缺失细节解决了这一挑战。
“我们使用预训练的文本转语音模型生成音频并模拟目标,”崔哲俊说。“我们也使用了安妮受伤前的声音,这样当我们解码后的输出听起来更像她。”
**近实时语音实时流传输**
在之前的BCI研究中,研究人员经历了较长的解码延迟,单句大约有8秒的延迟。采用新的流式方法后,在受试者尝试说话的同时即可近乎实时地生成可听输出。
为了测量延迟,研究人员采用了语音检测方法,这使他们能够识别开始说话意图的大脑信号。
“我们可以看到相对于那个意图信号,不到1秒内就能发出第一个声音,”阿努曼奇帕利说。“而且设备可以连续解码语音,所以安妮可以不间断地继续说话。”
这种更高的速度并未以精度为代价。更快的界面提供了与之前非流式方法相同的高水平解码精度。
“这是个好兆头,”利特尔约翰说。“以前还不知道实时从大脑流式传输可理解语音是否可能。”
阿努曼奇帕利补充说,研究人员并不总是清楚大规模AI系统是在学习和适应,还是只是在匹配模式并重复部分训练数据。因此,研究人员还测试了实时模型合成未包含在训练数据词汇表中的单词的能力——在这种情况下,从北约音标字母表中选取的26个罕见单词,例如“阿尔法”、“布拉沃”、“查理”等。
“我们想看看能否推广到未知单词并真正解码安妮的说话模式,”他说。“我们发现我们的模型做得很好,这表明它确实正在学习声音或语音的基本构建块。”
参与2023年研究的安妮也与研究人员分享了使用新流式合成方法与早期基于文本转语音解码方法相比的体验。
“她传达了流式合成是一种更具主动控制的模式,”阿努曼奇帕利说。“听到自己近乎实时的声音增强了她的自我感知。”
**未来方向**
这项最新工作使研究人员离实现自然语言的BCI设备又近了一步,同时为未来的进步奠定了基础。
“这个概念验证平台是一个重大突破,”崔哲俊说。“我们乐观地认为现在可以在每个层面取得进展。例如,在工程方面,我们将继续推动算法,看看如何更好地更快地生成语音。”
研究人员还专注于在输出语音中加入表现力,以反映语音过程中的语气、音调或音量变化,例如当某人感到兴奋时。
“这是正在进行的工作,看看我们能多好地从脑活动中的副语言特性解码,”利特尔约翰说。“即使在经典的音频合成领域,这也是长期以来的难题,将弥合到完全自然主义的差距。”
除了NIDCD的支持外,这项研究还得到了日本科学技术厅登月计划研发项目、乔安和桑迪·维尔基金会、苏珊和比尔·奥伯恩多夫、罗恩·康韦、格雷厄姆和克里斯蒂娜·斯宾塞、小威廉·K·鲍伊斯基金会、罗斯山创新者计划和UC诺伊斯研究员计划以及美国国家科学基金会的支持。
**资料来源**
加州大学伯克利分校工程学院
**期刊参考**
Littlejohn, K. T., Cho, C. J., Liu, J. R., Silva, A. B., Yu, B., Anderson, V. R., M., C., Brosler, S., Kashyap, A. P., Hallinan, I. P., Shah, A., Ganguly, K., Moses, D. A., Chang, E. F., & Anumanchipalli, G. K. (2025). 一种流式脑至语音神经修复装置以恢复自然沟通。《自然·神经科学》,1-11。DOI: 10.1038/s41593-025-01905-6
https://www.nature.com/articles/s41593-025-01905-6
(以上内容均由Ai生成)