UT 研究人员开发 AI 大脑解码器,为失语症患者带来广阔的用途
快速阅读: 据《德克萨斯大学 The Daily Texan》最新报道,一项由爱荷华大学研究人员开发的新AI工具可通过解读大脑活动将其实时转化为文字。该工具最初只能基于患者听懂播客的能力及其多次脑部扫描进行训练,但最新的研究通过短期数据和模型迁移技术,减少了对患者语言处理能力和多次扫描的需求。下一步,研究人员计划让失语症患者测试这一工具。交流是定义自我与连接世界的重要方式,这项技术有望改善人们的生活。
这可能始于一个人在一个词上绊倒。在短短四年內,患有原发性进行性失语症——一种神经语言障碍的患者可能会完全失声,爱荷华大学言语、语言和听力科学系的副教授梅娅·亨利表示。根据二月六日由UT研究人员发布的一项人工智能研究,一种新的AI工具可以读取大脑活动并将其翻译成连续的文字串。神经科学和计算机科学的副教授亚历山大·胡斯表示,他的团队一开始是通过训练AI模型来分析参与者听播客时的大脑扫描图像。“我们正常的计算模型会预测你正在收听的播客中的词汇如何引起你的大脑反应。”胡斯说,“当模型足够准确时,我们实际上可以逆向操作,从大脑反应中推断出引发这些反应的词汇。”
这个大脑解码工具的第一个版本出现在二零二三年同一实验室的研究中。然而,胡斯表示,最初的解码器有一些实际限制。首先,为了让模型基于患者的脑部扫描数据进行训练,患者需要能够理解他们正在收听的播客内容——一些失语症患者缺乏这种能力。其次,即便患者能够处理语言,他们也需要完成十几轮脑部扫描,模型才能准备好。胡斯表示,二零二五年的研究去除了对长时间训练会话的需求及患者任何口头处理的需求,通过将已为一人建立的模型转移至另一人。“我们可以使用少量数据,例如人们观看一小时短电影的数据,然后用这些数据为那个人构建一个语言解码器。”胡斯说。
言语、语言和听力科学系的副教授亨利表示,这项研究下一步是招募失语症患者参与解码实验,并分享他们对这项技术的看法。“交流是我们定义自己并与世界相连的方式。”亨利说,“这项技术不仅有可能让我们了解大脑如何支持语言以及我们如何解码,而且真的能影响人们的生活。”
(以上内容均由Ai生成)