医生会随你怎么说?AI 如何个性化医疗通信
快速阅读: 《英国医学杂志》消息,本文探讨利用大型语言模型模拟四种常见医患沟通方式,如家长式、信息提供式等,并提出AI在医学沟通中的新可能性,如“魔鬼代言人”角色。尽管尚无实际应用数据,但强调需更多研究以评估其影响及伦理问题。
作者:哈泽姆·佐尼、杰米玛·温弗里德·艾伦、多米尼克·威尔金森和尤利安·萨沃莱斯库
利益冲突:JS是AminoChain的顾问,也是Hevolution基金会的生物伦理顾问,并担任拜耳公司的生物伦理委员会顾问。由哈泽姆·佐尼、杰米玛·温弗里德·艾伦、多米尼克·威尔金森和尤利安·萨沃莱斯库撰写。
当你去医院看医生时,很难预料自己会遇到怎样的沟通方式。有些医生倾向于采取家长式的做法,直接告诉你要怎么做,几乎不会过多讨论。另一些医生则只提供事实,完全让你自己做决定。一些医生会帮助你探索自己的价值观以及对你而言真正重要的事情。还有一些医生会与你展开互动对话,讨论什么对你的健康最为有利。
医生乃至整个医疗体系的沟通方式可能大相径庭。这种方式既可以赋予患者力量,也可能让他们感到困惑、安心或沮丧。然而,总体而言,患者对此毫无选择权——这几乎就像是抽奖一样。你被分配给了一位医生,至少在某种程度上,他们会按照自己感到舒适的风格进行沟通,而这种风格未必适合你。
鉴于近年来对患者自主权的重视,一个可能的解决方案是让患者能够选择自己希望接收医学信息的方式。也许你想要一种直截了当、只讲事实的方法。或者你更愿意有一个医生引导你思考自己的价值观,在做决定之前帮你理清真正重要的东西。
另一方面,医生并不一定具备适应每位患者需求的技能。而且某些沟通方式——尤其是那些需要深入讨论的方式——对于现代医疗现实来说过于耗时。
这就是大型语言模型(LLMs)可以发挥作用的地方。这些模型是多语言的,拥有无限的耐心,并且可以根据个别患者的健康素养水平进行调整。它们可以在必要时花费足够的时间解释事物、回答问题并帮助你思考选项。它们似乎还非常擅长模仿不同的医学沟通风格。
在最近一篇题为《你想见哪个AI医生?》的JME论文中,我们使用GPT-4进行了测试,指示它扮演医生的角色,采用四种广为人知的医患沟通模式:
**家长式**:医生为你决定最好的方案并告诉你该怎么做。
**信息提供式**:医生给你所有事实但不做任何推荐。
**解释式**:医生在你做决定前帮助你理解自己的价值观。
**协商式**:医生讨论哪些价值观最重要,并引导你向最佳选择靠近。
我们基于每种方法的特点创建了四个不同的AI“医疗服务提供者”,你可以亲自尝试(点击截图将引导你进入每个GPT)。在论文中,我们也让GPT-4生成与模拟患者的示例对话,展示其保持这些不同风格的能力。
虽然我们尚未正式评估这些输出或将它们用于真实患者——这只是概念验证——但潜力显而易见(参见论文中的表1)。
但我们还探讨了超越传统医学沟通风格的可能性。语言模型开启了全新方法的大门,这些方法对人类医生可能不合适,但对于AI来说可能是有价值的。想象一下,由患者选择的语言模型扮演“魔鬼代言人”的角色,以一种从人类医生口中说出来可能不适当,但从非个人化的AI角度来看却可能有用的方式挑战他们关于健康决策的假设。或者一个使用故事讲述和想象力帮助患者思考不同治疗方案的模型。(我们还指导了一个可以教育患者了解不同医学沟通风格并在他们选择偏好的风格之前这样做的模型。)
当然,最大的问题仍未得到解答:这些沟通选项是否真的能改善患者对自己病情的理解?是否会帮助他们做出更好的决定或更有效地坚持治疗计划?我们还不知道。
这指向了AI伦理中的一个更广泛的问题:我们往往在缺乏数据的情况下就急于关注潜在的伦理问题。确实,这些工具的使用和普及对医患关系、隐私、患者健康以及更广泛的医疗决策意味着什么,存在重要问题。
但在我们了解患者在受控场景中使用这些工具的实际效果之前,我们需要数据来理解可能的权衡并有意义地解决这些问题,而不是仅仅猜测除了隐私和可靠性之外的其他潜在问题。
然而,这并没有阻止我们推测。在我们的论文中,我们也想知道语言模型的说服力对这些医学沟通策略意味着什么。我们不确定何时这些模型可能会从理性说服滑向操纵,也不知道如何检测这一点(尽管请参阅这篇论文)。
最终,或许最有趣的是,AI如何模仿现有医生与患者沟通的方式,而不是如何改变我们对医学沟通本身的理解。当患者可以自由探索不同的方法并花时间处理信息时,我们可能会发现,我们所认为的“良好”医学沟通的一切都基于人类医疗提供者的限制,而非患者的需求。
如果讨论医学决策的最佳方式尚未发明出来怎么办?
**论文标题**:你想见哪个AI医生?用GPT-4模拟医疗服务提供者-患者沟通模式:概念验证与伦理探索
**作者**:哈泽姆·佐尼、杰米玛·温弗里德·艾伦、多米尼克·威尔金森和尤利安·萨沃莱斯库
(以上内容均由Ai生成)