心理治疗师悄然引入AI,引发伦理争议
快速阅读: 心理治疗师在客户会话中使用AI引发争议,AI可在会前准备、会中辅助及会后整理,提高效率但涉及伦理与隐私风险。
心理治疗师在客户会话中利用人工智能(AI),这一做法颇具争议。
在今天的专栏中,我探讨了人类心理治疗师在客户会话中使用生成式AI和大型语言模型(LLM)的情况。
这是一项充满争议的专业行为。大多数客户通常认为,治疗师在治疗过程中不会借助AI。然而,治疗师可能在会前使用AI来准备会话内容,或者在会后利用AI整理笔记或获取某种形式的“第二意见”。
问题的核心在于,治疗师在会话进行时积极地使用AI。他们如何操作呢?其实很简单。治疗师可以使用多种大型语言模型,例如ChatGPT、GPT-5、Claude、Grok、Gemini、Llama等。另一种选择是使用专门为心理健康治疗定制的专用或定制LLM。
让我们深入讨论这个话题。
这项关于AI突破的分析是我持续在《福布斯》专栏上报道的最新AI进展的一部分,包括识别和解释各种重要的AI复杂性。
作为背景介绍,我一直在广泛覆盖和分析现代AI在心理健康建议和AI驱动的治疗方面的影响。这种趋势主要受到生成式AI的发展和广泛应用的推动。有关此主题的一些简要总结,请参阅链接。
这是一个快速发展的领域,无疑带来了巨大的好处,但同时也伴随着隐藏的风险和明显的陷阱。我经常就此类紧迫的问题发表意见,包括去年在CBS的《60分钟》节目中的发言。
人与人的心理治疗引入AI
在接受心理治疗时,客户的普遍预期是治疗师全神贯注于自己。然而,事实证明,情况可能并非如此,尽管有些许不同。一些治疗师选择在治疗会话中融入AI。在会话期间,治疗师可以选择让AI监听对话并实时提供即时评论给治疗师。客户可能并不知道这一点。这一过程可以非常隐蔽地进行。如果治疗师希望在不打断会话或引起客户担忧的情况下进行,可以通过与AI进行无声交流来实现。
涉及的技术细节
以下是其工作原理。
假设治疗是在一个治疗室进行,治疗师和客户都在场。治疗师可能有一台iPad或类似设备,用于做笔记。同时,对话的音频被传输到iPad,或者房间其他地方可能藏有麦克风。关键在于,所说的话被实时传输到数字设备。
治疗师选择使用的AI与音频输入流相连。如今,将音频快速转化为文字是非常常见的技术。人们经常使用这种功能来记录会议纪要。
AI扫描这些文字,评估治疗对话的性质。然后,在iPad上显示对治疗会话的评估。治疗师可能会收到警报,提示客户说了一些特别令人不安的话。或者,AI可能会调出客户之前的记录,突出显示客户多次提到的相同话题。
治疗师与AI实时互动
在会话中,还可能发生更多互动。
除了AI向治疗师通报会话状态外,治疗师还可以通过键盘向AI提问。客户到目前为止说了多少次他们感到沮丧?AI计算次数并显示给治疗师。我在上次会面时是否告诉客户阅读心理健康方面的资料,如果是,我提供了哪些推荐?AI查找上次会议的记录并显示推荐内容。
更深层次的互动也可以发生。
治疗师可能会要求AI提供客户的潜在心理分析。客户是否表现出与创伤后应激障碍(PTSD)相关的症状?AI作出回应。给我一个可以在当前会话中提出的问题,以进一步探索客户的潜在PTSD?AI提出一个可以在这一刻提出的合适问题。
在客户会话过程中,治疗师和人工智能可以实现充分互动。治疗师似乎只是在iPad上做笔记,而客户可能不会注意到正在进行的活动,也不会意识到AI正参与其中。
远程治疗更易于融入AI
远程治疗的兴起使得AI的引入变得更加简单。
想象一下,治疗师启动一个远程会话并让客户登录。此时,AI已经在后台运行。治疗师和客户看似面对面地交谈,实际上是在远程进行。
现在,对于治疗师来说,使用AI变得更加便捷。由于物理上的分离,AI更容易融入整个过程。客户通常无法看到治疗师的私人屏幕上与AI的对话,也无法察觉治疗师在会话期间打字的情况。
另一种可能性是治疗师佩戴耳塞,AI通过口头传达信息给治疗师。这在面对面会话时同样可行,只要耳塞不会泄漏音频。如果客户能听到AI在治疗师耳边低语并提供咨询建议,他们可能会感到不安。
有些人将这种使用耳塞的方法称为“耳朵里的虫子”式的AI辅助治疗。
关于对错的争论
你可能首先会认为AI的介入是绝对不可接受的。
付费给治疗师的客户应该得到治疗师的全部注意力。AI会成为干扰。AI应该在会话前后使用,而不是在会话中。
稍等一下,如果AI能够实时增强治疗效果呢?
从这个角度来看,你相当于支付了一位治疗师的费用却得到了两位治疗师的服务——一位人类治疗师加上一位AI治疗师。AI可以帮助人类治疗师更好地完成工作,提醒他们注意某些事项。人类治疗师毕竟是人,他们可以通过使用AI来提高自己的水平。
此外,如果AI仅限于在会话前后使用,那么它就失去了作用。AI在会话中提供帮助正是最恰当的时机。治疗师和客户都在场,这是创造奇迹的最佳时刻。
谁在真正工作
如果你勉强同意,前提是治疗师没有被AI分散注意力,且AI确实增加了价值,这或许是可以接受的方式。
然而,关键点在于,如果AI向治疗师提供治疗建议,这就越界了。治疗师应该具备治疗的专业知识。将控制权交给AI是不专业的,令人不安。人类治疗师应该提供基于人类的建议。
当然,治疗师并不是将治疗的控制权完全交给AI。他们只是参考AI的建议。治疗师可以选择完全忽略AI。AI的提示可能激发治疗师采取更有创意的治疗方向。
总体而言,治疗师仍然会凭借自己的智慧和专业技能进行治疗。
悲观的螺旋
然而,一个重要的反论点是,并非所有治疗师都会以谨慎的方式使用AI,将其保持在一定距离之外。
担忧如下:
治疗师因客户数量过多而感到压力山大。他们没有时间准备和回顾现有客户的资料。在会话中,治疗师状态不佳,无法发挥最佳水平。因此,他们决定这次依赖AI。
随着时间推移,治疗师越来越习惯于让AI成为治疗会话的核心。他们不再做任何准备工作,因为知道AI会处理得很好。治疗师只需要保持AI在线,并基本上遵循AI的建议。
治疗师成为了最后的防线。当AI提出某些建议时,如果治疗师发现AI过头了,他们会干预。否则,大部分时间里,治疗师都是跟随AI的指引。
从某种意义上说,人类治疗师几乎成了AI的传声筒。
去掉中间环节
有人可能认为,如果治疗师基本上将治疗过程交给人工智能,而假装自己仍在掌控,这是极其不道德的行为。客户可以直接使用人工智能,无需通过治疗师。这种情况下,客户可以自行访问人工智能,无需安排与人类治疗师会面,且人工智能随时可用,不受地点限制。
理论上,只有当治疗师确实能增加价值时,他们才会继续参与治疗过程。如果治疗师完全依赖人工智能,而没有用自己的智慧进行治疗,客户可能会发现这一点并选择不再看这位治疗师。客户可能会转而使用人工智能,或者寻找不那么依赖人工智能的治疗师。
我曾讨论过,治疗师可能因过度依赖人工智能而导致其治疗技能衰退的问题。精明的治疗师意识到,人工智能已成为治疗的一部分,客户带着人工智能生成的建议前来咨询,想知道治疗师对此有何看法。
总体而言,我预测未来治疗师与客户之间的关系将转变为治疗师-人工智能-客户的三方模式。治疗师若打算在实践中引入人工智能,应当向客户明确说明如何使用人工智能。
目前,关于治疗师行为准则的现有指南尚未普遍涉及人工智能的相关问题,但各州法律正在逐步介入这一领域。例如,伊利诺伊州已颁布新法,限制治疗师在心理治疗中使用人工智能(详见相关链接),犹他州(详见相关链接)和内华达州(详见相关链接)也采取了类似措施。
现有的行为准则是否足够宽泛,能够应对人工智能的引入?可能并不充分。美国心理学会(APA)的《心理学家伦理原则与行为守则》中提到以下重要点(摘录):
知情同意:
“当心理学家进行研究或提供评估、治疗、咨询等服务时,无论是面对面还是通过电子传输或其他形式的沟通,都应以客户能理解的语言获得其知情同意,除非法律规定或政府监管要求无需获得同意。”
保密义务:
“心理学家有首要义务,并采取合理预防措施,保护通过任何媒介获取或存储的机密信息,认识到保密的程度和限制可能受法律或机构规则或专业或科学关系的约束。”
录音:
“在记录接受服务者的语音或图像之前,心理学家应获得所有此类人员或其法定代理人的许可。”
仔细审查这些规定,可以发现潜在的漏洞。例如,如果人工智能实时流式传输治疗过程中的音频,这是否构成录音?有人可能会辩称,只要音频未被永久存储,就不是一种录音。它只是被实时解析,而非保存。
然而,治疗师需要注意,使用人工智能时,可能存在泄露保密信息和隐私的风险。面向公众的大规模语言模型通常附带许可协议,规定开发团队有权检查人工智能的使用情况,并可将其用于进一步训练人工智能。对此需格外谨慎。
最后,我想就这一争议话题补充一点。我在此讨论中主要关注客户治疗过程中的音频方面。人工智能使用的下一阶段将涉及捕捉视频流,分析客户在治疗过程中的面部表情和举止。这被称为环境人工智能。
总之,无论治疗师是否愿意,人工智能都将进入治疗领域。著名精神病学家维克多·E·弗兰克尔曾说过:“当我们无法改变现状时,我们面临的挑战是改变自己。”这一原则同样适用于治疗师和迅速进入治疗实践的人工智能。治疗师们,准备好改变自己吧。
(以上内容均由Ai生成)