AI 工具帮助一名瘫痪女性恢复语言能力:“她感觉自己被赋予了身体”
快速阅读: 据《CNET 公司》最新报道,研究者利用生成式AI,大幅缩短瘫痪者通过神经假体说话的延迟。这项技术帮助一位因中风失语的女性近乎实时交流,听起来仍像她原本的声音。尽管这只是概念验证,但展示了未来更便捷工具的潜力。
这项技术让您能够转录工作会谈,或许也能帮助瘫痪人士重新说话。
加州大学伯克利分校和加州大学旧金山分校的研究人员利用生成式人工智能减少了严重瘫痪患者尝试说话与计算机设备播放声音之间的时间延迟。他们的研究帮助了一位名叫安的女性,她在2005年30岁时因脑干中风而无法说话。通过这项技术,安能够近乎实时地进行沟通。因为模型是用她中风前的录音训练的,所以她听起来像自己原来的声音。
加州大学伯克利分校电气工程和计算机科学专业的博士生、该研究的联合主要作者崔哲俊表示,在几个不同方式下部署生成式人工智能,使研究人员能够在神经假体方面取得可能需要更长时间才能实现的进步。这项研究于今年三月发表在《自然·神经科学》上。
这是一个生成式人工智能工具如何帮助医学和科研人员更快解决问题的例子。人工智能正在加速进展。我们原以为可能需要十年甚至二十年,现在看来只需要三年左右。
崔哲俊称,帮助安的技术只是个概念验证,但展示了未来可能更即插即用的工具发展方向。
**加快语音速度**
现有神经假体的问题是存在延迟。过去的技术让安必须等一句话说完才能开始下一句。
安在2023年的第一次研究中,能够通过读取大脑试图发送给控制语言的肌肉信号的计算机进行交流。
主要突破是她无需等到说完整句话。现在我们可以在她想要说话时随时进行解码。
这种假体包括植入她大脑表面的一组电极,并通过电缆连接到一组计算机上。它解码安的大脑发送给控制语言的肌肉的控制信号。在安选择她想说的话之后,人工智能从运动皮层读取这些信号并赋予它们生命。
为训练模型,团队让安尝试说出屏幕上的提示句子。然后他们使用这些活动的数据来映射运动皮层的信号,并利用生成式人工智能填补空白。
崔哲俊称,团队希望这一突破能带来可扩展且更易获取的设备。
“我们仍在努力让它更精准、减少延迟,我们正在尝试构建一种可以更即插即用的东西。”
**用人工智能把想法变成语言**
崔哲俊称,团队用多种方式运用了生成式人工智能。其中之一是复制安受伤前的声音。他们使用受伤前的录音来训练一个能够产生她声音的模型。
“当她第一次再次听到自己的声音时,她非常兴奋,”崔哲俊说。
最大的改变体现在实时转录上。崔哲俊将其比作转录实时演讲或会议的工具。
这项研究基于2023年的一项研究,该研究使用人工智能工具帮助安进行交流。然而,这项工作在安尝试说话与单词生成之间仍有明显延迟。本研究大幅减少了这一延迟,安告诉团队这感觉更自然。
“她报告说她感到真实存在,那是她自己的话语,”崔哲俊说。
(以上内容均由Ai生成)