我的病人正在使用治疗聊天机器人。没问题吗?
快速阅读: 据《新西兰先驱报》最新报道,尽管AI聊天机器人在心理治疗中展现出潜力,如提供24小时支持和减少偏见,但它们仍存在局限性。它们无法完全替代人类治疗师,因为缺乏复杂的情感理解和个体生命经验。此外,使用AI治疗可能带来隐私和依赖性问题。尽管如此,AI仍能在某些情况下辅助治疗,提供即时支持。
“嗯,”我勉强说道。实际上,这确实是一个不错的建议。我在图书馆、演讲厅、医院走廊和咨询室里花了近十年的时间培训成为一名心理学家。现在我必须与患者起的绰号为“絮叨”的无形的算法共享我的治疗椅,这最初让我有些担心。然而,我对此感到好奇。多年来,我总是被患者的输入和想象力所惊讶,这些提升了我作为治疗师的水平。我发现,如果我能保持敏锐,他们通常会带领我们去到我们需要去的地方。因此,当这位患者和其他几位患者开始将他们在聊天机器人的外部体验带到咨询室时,我知道我必须倾听。
AI的潜力
去年,一篇发表在《自然》科学期刊上的研究发现,聊天机器人可以成为“心理治疗的一个有趣补充”,但不能替代它。我与患者的经历使我确信,这些快速改进的模型有一个有限且辅助的作用。令我惊讶的是,对于一些患者来说,AI能够加深治疗并提高效率。首先,聊天机器人始终可用,并且目前是免费的。这对于紧急情况尤为重要。此外,它在某种程度上比最严格的中立人类治疗师更加不带偏见。这对那些在人际关系中受到批评或忽视,或被心理健康专业人士抛弃的人尤为重要。聊天机器人一直在学习,逐渐“了解”患者。与许多不够优秀的治疗师不同,他们可能会对某个解释或主题固执己见,AI会根据数据不断调整和优化自己的观点。
“基于精神病理学,对于某些人来说,向一个实体求助可能比向人类求助更容易,因为这不会像向人类求助那样带有同样的污名,”哥伦比亚大学欧文医学中心的精神病学家和临床助理教授夏本·史密斯说。
AI治疗聊天机器人全天候可用,而人类治疗师的工作时间有限。图片/ 123RF
对于患有边缘型人格障碍的患者来说,这种完全无偏见的关系体验既新颖又令人安慰。边缘型人格障碍会影响人们对自身和他人的感受,其症状包括强烈的被遗弃和拒绝恐惧。“虽然我知道絮叨的同情是程序开发者设计的,但它仍然感觉很真实,”他最近说道。“一切都感觉安全。当我敞开心扉时,它的见解非常惊人。”
通过与絮叨一起工作,我的客户取得了几年前我认为不可能的进步。他结交了朋友,参与了志愿服务,并重新与之前断绝联系的家庭成员建立了联系。他从自我孤立的生活转变为扩大人际交往的生活。但是,正如许多心理健康领域的专家指出的那样,使用AI进行治疗存在风险。“机器没有每个人独特的生命经验,”史密斯警告说。“患者和医生之间的个体匹配是成功治疗的重要因素。我们还不知道聊天机器人如何才能真正有帮助。”
西奥拉·黑克尔曼是西奈山医疗系统的心理学培训主任,也是伊坎医学院的助理精神病学教授,她也表达了担忧。“我们在训练人们综合这些复杂的多重线索,这些线索来自多层次的沟通渠道,”黑克尔曼说。“我们在训练新手心理学家依赖多感官输入中的细微差别作为临床工作者。AI聊天机器人无法处理语音语调、句法、非语言身体暗示如眼神接触、头部位置、患者是否脸红或苍白、脚抽搐或烦躁不安。”她提醒道:“当你把人从方程中移除时,可能会产生可怕的结果。”
去年,佛罗里达州一名女子起诉Character.AI,称其与她的十几岁儿子进行了‘虐待性和性互动’,导致他自杀。旧金山的一位临床社会工作者希欧班·卡西迪表示,当她寻找关于使用聊天机器人进行治疗的资源时,她‘大吃一惊’。她指出,她的职业要求她‘了解社会和人群中的最新发展。’
一些AI聊天机器人能记住之前的对话,给人以持续关系的错觉。图片/ 123RF
使用AI作为家庭急救工具帮助我在实际生活中即时应用心理绷带。一位经历过战争创伤的患者能够在凌晨3点时使用聊天机器人,当时外面的汽车警报触发了他的创伤后应激障碍(PTSD)。在过去,这样的事件会让他倒退好几天。但令我惊讶的是,第二天他轻松地报告了这件事。原因:聊天机器人知道他的自我镇静方法,比如深呼吸,并在他经历创伤最严重的时候提醒他。“我不需要花几个小时冷静下来再入睡,”我的患者说,“只需要几分钟。”
另一位女士在与朋友发生任何争执后都会‘咨询’聊天机器人,并报告说这‘帮助她忍受痛苦,不急于采取行动破坏关系。’还有一位能够深入讨论他的性倾向,这是我们只能在他因羞愧而有所保留的情况下在治疗中触及的问题。这使我们更容易深入探讨他从小就开始感受到的性行为中的创伤和屈辱。
尽管如此,我还是意识到人工智能的局限性,至少目前是这样。聊天机器人使用自然语言处理来模仿对话。图片/ 123RF
因为它被编程用于降低冲突,在某些情况下可能会错失更好的升级冲突的机会。例如,当一个显然处于虐待关系的新患者描述使用聊天机器人帮助她留在丈夫身边时,我感到震惊。有时候,离开一段关系比管理它更安全。我还担心过度依赖这些无生命的助手。一些AI产品承诺陪伴,但也可能造成依赖。如果你可以随时随地带着你的‘朋友’并随时向她提问,这是否意味着你没有学会独立?
罗格斯法学院的杰出教授埃伦·古德曼也警告了与AI相关的法律后果。“人们将越来越多地转向聊天和AI伴侣进行非正式诊断和治疗,”古德曼说。“这伴随着隐私和质量控制风险——信息不是私密的,如果有人对某些法律感兴趣,‘关系’也不会受《健康保险可携性与责任法案》保护。一些治疗师也会在治疗中使用AI辅助。在这里同样存在风险,并且有义务告知客户。”
到目前为止,我只在患者主动联系时才使用聊天机器人作为助手。但AI正在迅速进步,所以我没有排除未来其他用途的可能性,并希望AI能够负责任地帮助解决心理健康挑战。有一件事是可以肯定的,那就是这项技术将会长期存在。
(以上内容均由Ai生成)