Brain Implant 将瘫痪女性的思想“流化”,就好像她几乎实时地说话一样
快速阅读: 据《奇点枢纽》称,瘫痪女性通过脑植入装置实时捕捉大脑信号,借助AI将其转化为文本和语音,实现与外界交流。新系统延迟仅一秒,平均一分钟可译47词,最高近94词,相比以往技术显著提升沟通自然性,助其克服交流障碍。
由于一个薄如芯片的圆盘能够捕捉她大脑中的语音信号,一位瘫痪女性再次能够与外界沟通。一个由人工智能驱动的系统将这些电信号转化为文本,并利用她失语前的录音合成语音。这不是首个帮助瘫痪者恢复说话能力的脑机接口,但之前的设备存在较长的延迟时间。有些设备需要长达20秒才能将想法转化为语音。而这个新系统,被称为实时脑信号流神经假体,仅需一秒钟。研究团队在今天发表于《自然·神经科学》的一篇论文中写道:“超过几秒的语音延迟会破坏对话的自然流动。”这使得瘫痪者难以参与有意义的对话,可能导致孤立和沮丧的感觉。
平均而言,人工智能每分钟可以翻译大约47个单词,一些试验的速度几乎达到这个速度的两倍。研究团队最初训练算法时使用了1024个单词,但最终它学会了根据这位女性的大脑信号解码其他单词,尽管准确率较低。该算法还表现出一定的灵活性,能够解码从两种其他类型的硬件收集的电信号,并使用来自其他人的数据。加州大学伯克利分校的研究作者戈帕拉·阿努曼奇帕利在一份新闻稿中说:“我们的实时脑信号流方法为神经假体带来了像Alexa和Siri这样的设备所具有的快速语音解码能力。”“结果是更自然流畅的语音合成。”
**填补鸿沟**
失去交流能力是毁灭性的。对于瘫痪者已经有了一些解决方案。其中一种使用头部或眼部运动来控制数字键盘,用户在那里输入他们的想法。更先进的选项可以将文本转换为多种声音的语音(虽然通常不是用户自己的声音)。但这些系统的延迟超过20秒,使自然对话变得困难。
这项新研究的参与者安,每天都在使用这样的设备。年仅中年的她,因一次中风切断了她大脑与控制发音肌肉之间的神经连接。这些肌肉包括声带、嘴唇和舌头的肌肉,以及通过气流来区分声音的肌肉,比如轻柔的“think”与喉音的“umm”。大脑最外层,称为皮质的部分发出的电信号指挥这些肌肉的运动。通过捕捉它们的信号,设备可以潜在地解析一个人想说话的意图,甚至将信号转化为可理解的单词和句子。这些信号很难解读,但多亏了人工智能,科学家们已经开始理解它们。
2023年,同一团队开发了一种脑植入装置,将大脑信号转化为文本、语音和模仿一个人面部表情的虚拟形象。这种植入装置放置在大脑顶部,比手术植入的装置造成的损伤小,其人工智能以大约每分钟78个单词的速度将神经信号转化为文本——大约是大多数人说话速度的一半。与此同时,另一组研究人员使用直接植入大脑的小型电极以类似的速度将125,000个单词转化为文本。最近的一种植入装置,词汇量相近,允许一名参与者在八个月内以近乎完美的准确性进行交流。研究团队写道:“这些研究展示了词汇量、解码速度及文本解码准确度方面的重大进展。”但它们都面临同样的问题:延迟时间。
**实时脑信号流**
安在一个负责语言的大脑区域表面植入了一个纸一样薄的电极阵列。这种植入装置并不是直接读取她的思想。相反,它捕捉了她用口头表达单词时产生的神经信号。一个电缆连接着固定在她头骨上的一个小端口,将大脑信号发送到计算机进行解码。该植入装置的人工智能是一个三部分的深度学习系统,这种算法大致模拟了生物大脑的工作方式。第一部分实时解码神经信号。其他部分则使用语言模型控制文本和语音输出,这样安就可以阅读和听到设备的输出。
为了训练人工智能,安想象用简短的句子说出1024个单词。虽然她无法实际移动她的肌肉,但她的大脑仍然生成了作为她在说话时产生的神经信号——所谓的“无声言语”。人工智能将这些数据转化为屏幕上显示的文本和语音。
(以上内容均由Ai生成)