AI辅助治疗或致心理医生技能退化风险

发布时间:2025年9月21日    来源:szf
AI辅助治疗或致心理医生技能退化风险

快速阅读: 心理治疗师利用AI辅助治疗,可能因过度依赖而削弱自身专业技能,导致治疗能力下降。专家建议治疗师应保持独立思考,合理使用AI。

心理治疗师依赖AI作为辅助工具,是否会削弱其专业技能?

在今天的专栏中,我探讨了心理治疗师利用生成式人工智能(AI)和大型语言模型(LLM)作为治疗工具来帮助客户和患者时,是否无意中削弱了自己的心理健康咨询能力。有一种猜测认为,由于过度依赖AI,治疗师可能正在逐渐丧失专业技能。这种现象可能以一种微妙且不易察觉的方式发生。

据称,治疗师们为了利用现代AI作为服务的强大补充,不知不觉中陷入了失去核心治疗技能的陷阱,导致他们在心理健康指导方面的能力迅速下降。

让我们就此展开讨论。

这一关于AI突破的分析是我持续在《福布斯》专栏报道的最新AI动态的一部分,其中包括识别和解释各种重要的AI复杂性(详见链接)。

AI与心理健康治疗

简要背景介绍,我一直在广泛覆盖并分析现代AI产生心理健康建议及执行AI驱动治疗的多个方面。这种AI的兴起主要是由生成式AI的发展和广泛应用所推动的。关于这一发展主题,我已发表了一百多篇专栏文章,其中约四十篇的摘要可在此链接中找到。

这是一个快速发展领域,确实存在巨大的潜力,但不幸的是,也伴随着隐性的风险和明显的隐患。我经常就这些紧迫的问题发表意见,包括去年在CBS的《60分钟》节目中的一次发言(详见链接)。

更多推荐

– 北极光警报:周日可能出现“春分极光”的14个州

– 专家和我们的时尚团队推荐的最佳男士西裤

– 本周末将迎来今年第二次也是最后一次日食

治疗师与AI的使用

许多心理治疗师和心理健康专业人士选择将AI整合到他们的实践中,公开地将其作为客户的治疗辅助工具(详见我的报道链接)。即使那些不选择整合AI的人,也会遇到已经在使用AI的客户和患者。这些客户和患者往往带着AI告诉他们如何进行治疗的先入为主观念走进治疗室。

从这个意义上说,无论是否主动采用AI,治疗师和心理健康专业人士都将受到AI不断进步的影响。目前,大约有7亿活跃用户每周使用ChatGPT,还有数亿人在使用Claude、Gemini、Llama等竞争对手的AI。重要的是,生成式AI最突出的用途之一是提供心理健康建议(详见我对AI使用排名的报道链接)。预计不久的将来,全球将有数十亿人通过AI获取治疗见解和指导(详见我的评估链接)。

人们希望他们的治疗师能够与时俱进。AI已经到来,这一点显而易见。他们更倾向于选择一位承认AI出现,并能指导客户如何合理、适当地使用AI的治疗师。明智的观点是,希望未来事业有成的治疗师将意识到,拥抱AI比抵制AI更为有利。

更多细节,请参阅我的分析(详见链接)。

人类技能退化的问题

让我们换个话题,考虑一下最近关于AI使用导致医生在各个医疗专科领域技能退化的担忧。随后,我将把这个方面与治疗和心理健康专业人士联系起来。

一项新发布的研究报告引起了相当大的轰动,声称AI在医疗领域的使用导致了医生的专业技能退化。这项研究名为“内镜医生接触人工智能后的技能退化风险:一项多中心观察研究”,由Krzysztof Budzyń等人发表于《柳叶刀·胃肠病学与肝脏病学》,2025年8月12日。该研究指出了以下关键点(摘录):

“目前尚不清楚持续接触人工智能(AI)是否会改变内镜医生在结肠镜检查中的行为。”

“我们在波兰参与ACCEPT(人工智能在结肠镜检查中预防癌症)试验的四个内镜中心进行了回顾性观察研究。这些中心在2021年底引入了用于息肉检测的AI工具,之后的结肠镜检查被随机分配为有或没有AI辅助,具体取决于检查日期。”

我们通过比较AI实施前后三个月的情况,评估了结肠镜检查的质量。主要结果是标准非AI辅助结肠镜检查在AI介入前后的腺瘤检出率(ADR)变化。持续接触AI可能会降低标准非AI辅助结肠镜检查的ADR,这表明AI可能对内镜医生的行为产生了负面影响。

先前的研究显示,AI有助于提高内镜医生的检测率,而这项最新研究却得出了几乎相反的结论。研究方法如下:假设提供AI支持后又将其撤回,如果在此之后内镜医生的检测率下降,那么问题就出现了:为什么会发生这种情况?

一种观点认为,工作人员的技能退化了。他们依赖AI来完成繁重的工作,导致自身能力衰退。因此,当AI被撤回时,他们的表现无法恢复到使用AI之前的水平。

这一分析引发了争议,各种不同的观点和解读正在讨论中。

类比普遍存在

支持技能退化结论的一个有力论点是,这种情形类似于常用GPS导航系统的普及。以前人们使用纸质地图,需要费力地规划路线以到达目的地。随着GPS的出现,人们只需告诉AI规划路线即可。不再需要费力思考选择道路和详细规划路线。AI替你完成了这一切,简单易行。其结果是,人们在这方面的能力已经退化,不再擅长规划驾驶路线。

这个论点似乎很有说服力。然而,并非所有人都认同其中的逻辑,尤其是这种现象是否能推广到其他领域。例如,有人可能认为GPS主要是一项视觉任务,就像上述研究中的医疗专业人员工作一样。或许技能退化是基于视觉技能的侵蚀,而不涉及非视觉任务。

可能存在过度泛化的倾向,超出了研究的范围和性质。

为了探讨这一复杂主题,我们可以暂时接受技能退化可能因依赖AI而发生的观点。

治疗师技能退化的问题

设想一位治疗师将AI分配给客户和患者,作为正在进行的心理健康治疗的补充。客户和患者可以在两次人类治疗师会面之间的任何时候访问AI。如果有人突然需要倾诉,他们可以登录AI系统。这可能是在午夜,远远超出传统的人类治疗师工作时间。

在某个时候,一位客户或患者在与人类治疗师的会面中提到,AI提供了某种指导。治疗师可能会轻易接受AI的说法,允许自己在治疗过程中变得被动。他们仿佛成了AI使用的监督者,只是对AI的建议点头同意。治疗师不再积极运用自己的诊断思维。

假设这种情况一再发生,治疗师逐渐转向了较为轻松的监督角色,不再充分发挥其治疗专长。随着时间推移,这种缺乏运用治疗技能的情况导致了能力的衰退。不知不觉中,他们的核心竞争力已经严重受损。

并非定论

这种潜在的治疗师能力丧失是否不可避免?

并非如此。

那些断言治疗师由于AI而注定失去指导能力的说法是站不住脚的。首先,澄清一点,这种情况可能发生吗?我认为是可能的。如果治疗师因为认为利用AI可以增加客户量而这样做,他们可能会越来越依赖AI。这可能是由于客户量增加,治疗师没有足够的时间和精力来维持高水平的服务。

治疗师可能会忽视一种悄然发生的变化,即会谈逐渐变成主要讨论人工智能对客户的建议,而真正的治疗退居次位。客户脑子里想的都是人工智能,这在一定程度上削弱了治疗师在推动治疗过程中的作用。这是一个现实的可能性。

好消息是,敏锐的治疗师不必落入这个陷阱。

如何避免陷入困境

选择利用人工智能的治疗师需要关注几个关键方面:

他们必须促使自己在整个治疗过程中,特别是在与客户的面对面会谈中保持完全投入,不要让人工智能的使用盖过治疗本身。不要让客户主导宝贵的面对面时间去过多谈论人工智能。要专注于当前的治疗。

一个有用的方法是始终仔细回顾自己的会谈笔记。大多数治疗师已经会回顾笔记,但他们可能不会留意到自己是否减少了治疗活动或被人工智能的边缘话题分散了注意力。

另一个重要方面是确保将维持和提高治疗技能放在首位。即使有时在某些会谈中较为被动,也可以通过会谈之外的方式提升技能。对于每一点可能的技能退化,都应努力保持并提升至少同样多的技能。

简而言之,这三个要点需牢记于心:

1. 敏锐的意识和行动。

治疗师需要意识到,将人工智能作为辅助工具可能会导致其心理健康技能的退化,并应采取明确而具体的措施防止这种衰退。

2. 回顾会谈笔记并自我反思。

治疗师应利用会谈笔记来检测自己是否在不知不觉中陷入陷阱,并反思如何应对即将出现的问题。

3. 明确地维持技能。

无论何时,维持和提升治疗技能都是一个好的做法,尤其是在人工智能用于心理健康指导的背景下,这一点尤为重要。

未来就在眼前

我一再强调,我们正不可避免地从传统的治疗师-客户二元关系转变为新的治疗师-人工智能-客户三元关系。引入人工智能并非免费午餐。

治疗师需要明智地理解如何在新兴的三元关系中平衡人工智能。人工智能在这个背景下有巨大的好处,但也有很多隐患和缺点。

当我提到治疗师需要确保其心理健康能力得到维持甚至提升时,有一点讽刺意味的是,这可以通过正确使用人工智能来实现。治疗师可以利用人工智能来提升其治疗技能。例如,让大型语言模型扮演模拟患者,是一种显著有用且无风险的锻炼治疗技能的方式。

技能退化的谬论

最后一点思考。

不要让那些对人工智能一知半解的人说服你,认为必须禁止治疗师使用人工智能,因为据说会导致治疗师技能退化。在几乎所有情况下使用人工智能都是一个双刃剑。它可以带来巨大的优势,也可能因管理不善而导致不良后果。

利用其优势,减轻其负面影响。

正如柏拉图所说:“最伟大也是最好的胜利是战胜自我。”这一观点至今仍具有重大意义,尤其当人工智能在我们的生活各个方面,无论是职业还是个人层面,变得普遍之时。

(以上内容均由Ai生成)

你可能还想读

芯纬内部人士抛售超10亿美元股票引发警报

芯纬内部人士抛售超10亿美元股票引发警报

快速阅读: 纳斯达克上市公司CoreWeave因内部人士大量抛售股票受关注,10月交易超10亿美元,股价承压下跌,引发投资者对该公司信心的质疑。 纳斯达克上市的CoreWeave (CRVW)因内部人士大量抛售股票而受到广泛关注。10月,一 […]

发布时间:2025年10月24日
升腾首席分析与AI官:用数学背景解决医疗问题

升腾首席分析与AI官:用数学背景解决医疗问题

快速阅读: 安森斯首席分析与人工智能官卡提克·拉贾强调,人工智能是一类问题而非单一事物,需识别并应用正确方法解决。他领导团队利用AI优化医疗流程,提高决策效率,同时注重人才培养和道德领导。 卡提克·拉贾,这家覆盖16个州的大型医疗系统首席分 […]

发布时间:2025年10月24日
格拉斯利宣布法官使用AI致法庭命令出错,实施新政

格拉斯利宣布法官使用AI致法庭命令出错,实施新政

快速阅读: 美国参议院司法委员会主席格拉斯利宣布收到法官们关于AI导致法院命令出错的回应,法官温盖特和尼尔斯承认错误并实施新政策,确保命令准确性,同时法院行政办公室成立AI咨询工作组,发布临时指导方针。 美国参议院司法委员会主席查克·格拉斯 […]

发布时间:2025年10月24日
AI视频生成系统不断进步,ChatGPT创始人更新发展计划

AI视频生成系统不断进步,ChatGPT创始人更新发展计划

快速阅读: 本周,顶尖开发者公布人工智能视频生成系统的最新进展,包括即将推出的安卓应用。该技术融合多种特性,引发艺术与伦理讨论,但仍不断进步,输出效果惊人。 基于人工智能的视频生成系统集多种特性于一身。的确,它们引发了关于艺术、创作者角色及 […]

发布时间:2025年10月24日
美法官承认职员用AI起草错误命令

美法官承认职员用AI起草错误命令

快速阅读: 美国地方法官温盖特承认其法律助理使用AI程序起草了有误的法院命令,引发争议。温盖特表示将加强审查流程,避免类似错误。参议员格拉斯利呼吁制定更明确的AI使用政策。 密西西比州的一名联邦法官承认,其工作人员使用人工智能起草了一份有误 […]

发布时间:2025年10月24日
ChatGPT遭遇重大故障,用户报告服务中断

ChatGPT遭遇重大故障,用户报告服务中断

快速阅读: ChatGPT遭遇重大技术故障,OpenAI确认“高频率错误”,用户反馈广泛。故障始于周四上午11时(美国东部时间),Downdetector数据显示问题激增。 受连续强降雨影响,南部多地出现洪水,相关部门紧急启动防汛响应。Ch […]

发布时间:2025年10月24日
OpenAI推新浏览器Atlas,挑战Google Chrome

OpenAI推新浏览器Atlas,挑战Google Chrome

快速阅读: OpenAI推出ChatGPT Atlas浏览器,挑战谷歌Chrome,集成AI功能助用户高效完成任务,计划近期增加标签组和广告拦截器等新特性。 萨姆·阿尔特曼的OpenAI继续将其生成式AI模型整合到全球大多数人的日常工具—— […]

发布时间:2025年10月24日
ChatGPT短暂故障后恢复,医疗咨询模式引关注

ChatGPT短暂故障后恢复,医疗咨询模式引关注

快速阅读: 医学研究人员报告AI医疗失误案例,患者因咨询ChatGPT致溴化物中毒精神错乱。专家长期担忧此问题,OpenAI推出专门医疗建议模式应对。 几周前,一位医学研究人员报告了一起由AI引发的医疗失误案例,详细描述了一名患者因咨询Ch […]

发布时间:2025年10月24日