医学对人工智能的快速采用引起了研究人员的担忧
快速阅读: 据《Nature.com》最新报道,研究显示,美国医疗AI产品监管滞后。尽管超1000种产品获FDA批准,但其监管能力有限,因AI工具会随更新持续演变。FDA审批标准较药物宽松,且可能具全球影响。理想情况下,医院应评估算法在其患者群体中的表现再采用,但多数缺乏相关资源,直接购买“现成”工具可能带来隐患。
人工智能(AI)已经协助临床医生进行诊断、分类危急病例,并在美国各地医院中用于转录临床笔记。然而,在6月5日发表于《PLOS数字健康》的一份报告中,研究人员指出,医疗AI产品的监管未能跟上其快速普及的步伐。作者指出了美国食品药品监督管理局(FDA)在批准这些设备时存在的局限性,并提出了超越该机构的更广泛的策略,以确保医疗AI工具的安全性和有效性。超过1000种医疗AI产品已获得FDA批准,医院正在迅速采用它们。
与其他大多数受FDA监管的产品不同,AI工具在获得批准后会随着更新或重新训练新数据而继续演变。这需要持续的监督,而现行法规对此的监管能力有限。谷歌AI通过图片诊断皮疹的能力优于人类医生。鉴于联邦政府可能放松AI监管的近期迹象,这一讨论显得尤为及时。今年1月,唐纳德·特朗普总统撤销了一项专注于AI安全的行政命令,称此举是为了消除创新障碍。随后一个月,FDA负责AI和数字健康的部门裁员影响了员工。
如果没有适当的监督,医疗算法可能会提供误导性建议,从而影响患者护理。“必须有保障措施,”麻省理工学院剑桥分校的临床研究员、该报告的合著者利奥·安东尼奥·塞利说道,“我认为完全依赖FDA来制定所有保障措施是不现实的,甚至可能是不可能的。”
审批标准宽松。FDA用于审核和授权AI医疗工具的标准通常比药物的标准宽松。而且由于其他国家依赖FDA来指导自身的决策,其方法可能具有全球影响。例如,根据FDA的说法,只有那些可能对患者构成更高风险的工具才需要经过临床试验。另一个担忧是,医疗算法在应用于与训练数据不同的群体时通常表现欠佳。塞利表示,由于这些限制,监管批准并不能保证医疗AI产品对其预期帮助的人群有益。
谷歌AI在与人类医生的对比中表现出更好的诊断能力。理想情况下,医院应评估算法在其自身患者群体中的表现,并培训临床医生解释输出并作出适当反应后再采用这些技术。“最大的挑战之一是,大多数医院和诊所缺乏雇佣AI团队的资源”来进行这样的测试,塞利说,并补充道,今年发布的一项研究显示,许多医院正在直接购买‘现成’的AI工具并未经本地验证就投入使用。“这无疑是灾难的隐患,”他说。
(以上内容均由Ai生成)