米大辩论:AI能否替代传统心理治疗
快速阅读: 密歇根大学学生因精神健康问题增多,转向AI寻求心理支持。教授们讨论AI咨询的安全性和有效性,强调其不应替代传统治疗。学生亚历克斯分享使用AI体验,认为有助于理解自身情绪。
随着生成型人工智能的热度持续上升,越来越多的密歇根大学学生开始利用这项技术寻求咨询和治疗建议。该校的教授和学生讨论了这些互动的安全性和有效性,以及人工智能是否能完全取代面对面的咨询服务。
即将担任计算机科学与工程系终身教职助理教授的丹·阿德勒研究了人工智能在医疗保健领域的应用。在接受《密歇根日报》采访时,阿德勒表示,美国精神健康诊断数量的增加导致了诸如学校心理咨询和心理服务等面对面咨询服务的等待名单变长,这促使更多人转向人工智能寻求心理支持。
“许多个体无法获得专业的心理健康护理,或者在寻找负担得起的心理健康护理时面临挑战,”阿德勒说。“因此,人们会转向那些易于获取、可以全天候提供心理健康需求支持的技术,如果他们感到孤独,没有其他途径联系专业人士以获取支持,这是可以理解的。”
与治疗师的对话相比,个人与人工智能之间的交流存在多种差异。医学院精神病学系主任斯蒂芬·F·泰勒博士告诉《日报》,大多数人使用该技术来询问简单且风险较低的问题,而不是进行完整的治疗会话。
“大多数问题可能强度较低,比如‘我该怎么处理与女友的关系?我应该对她说什么?’这类问题通常是你会向朋友求助的,”泰勒说。“但有时朋友不在身边,而聊天机器人却总在那里。”
一名因精神健康相关的污名化而要求匿名的学生向《日报》讲述了其使用人工智能进行治疗的经历。在这篇文章中,他们将被称为亚历克斯。亚历克斯表示,由于在学校的假期期间居住在密歇根州外,协调会议变得困难,他们选择使用这项技术而非传统的咨询服务。此外,时间投入也是他们不使用面对面咨询的原因之一。
“每当我情绪波动较大,觉得需要找人倾诉,但又不方便或信任的人正忙时,我就会转而使用人工智能来宣泄一切,”亚历克斯说。“这样既不会打扰到别人,也能让我得到及时的支持。”
当亚历克斯遇到这种情绪时,他们会与ChatGPT或Google Gemini等聊天机器人交谈。这些AI聊天机器人会倾听他们的处境并提出后续问题,类似于面对面的治疗过程。
“通常情况下,经过30分钟到一小时的交流,我会根据自己的感受和结束时的状态考虑机器人的建议,”亚历克斯说。“我认为这有助于我理解对方的视角,帮助我了解自己的情绪及为何受伤。”
然而,计算机科学与工程系教授兼高级副系主任艾米丽·莫尔·普罗沃斯特告诉《日报》,使用AI的用户仍需谨慎对待聊天机器人提供的指导。
“如果我们担心他人对我们言论的理解,想要提问却又害怕人类的反应或被评判,使用AI确实非常诱人,”普罗沃斯特说。“但我们仍然应该非常小心它所给出的建议。它不是人类治疗师,不具备相同的责任。”
普罗沃斯特还提到,另一个问题是开发人员训练AI时使用的信息可能带有对精神健康问题的污名化,这可能导致聊天机器人的回应也反映出类似的态度。
“现有的系统大多吸收了大量的数据,”普罗沃斯特说。“如果数据中多次出现对精神疾病的污名化,那么它们学到的一点就是生成具有这种风格的文本。可能会对精神健康状况发表批判性的评论,甚至建议孤立或切断与他人的联系。”
泰勒表示,AI还可能默认同意用户的看法,而不是质疑错误的前提,这对使用像ChatGPT这样的技术的精神病患者尤其危险。
“这些系统是基于人类反馈的强化学习设计的,”泰勒说。“它们被调校成说一些让人高兴的话。因此,这种现象可能会使有妄想倾向的人放大(这些妄想)。”
亚历克斯承认,他们使用的AI经常同意他们的感受。但是,当他们意识到聊天机器人在支持错误的观点时,他们并不害怕反驳。
“如果我花足够的时间分享我的观点,肯定能说服自己我是有道理的,”亚历克斯说,“但我显然知道事情并非非黑即白,一切都是灰色地带,所以我总觉得自己必须说‘我认为这不对’。”
泰勒表示,尽管他们对使用人工智能治疗存在担忧,但与AI的对话仍能让人们感觉更好,其正面作用可能超过负面影响。“如果一个人感到孤独,而这种关系确实让他们感觉更好,我们能否断言这总是坏事?”泰勒说,“我认为不是。仅仅因为存在风险并不意味着它是坏的。我们在处理涉及风险的治疗时经常权衡风险与收益。”
为了缓解像ChatGPT这样的通用AI带来的问题,公共卫生学生阿鲁什·戈埃尔帮助创建了WanderWell,这是一个专门帮助患有物质滥用障碍的人工智能聊天机器人。戈埃尔去年与一群学生在《公共卫生555:ChatGPT/AI与公共卫生》课程中开发了这款应用程序,并告诉《每日新闻》,他目前正努力将其推广到整个大学。“许多学生面临学术压力,同时还要平衡工作和生活责任,这已成为导致我们社区内物质滥用障碍增加的主要因素,”戈埃尔说,“我认为AI可以在这方面发挥重要作用,特别是这个聊天机器人可以成为帮助学生寻求帮助的重要资源,而不必担心污名化。”
然而,戈埃尔指出,WanderWell不能替代面对面治疗,并且设置了防止应用程序超出能力范围的屏障。“当学生输入某些表现出自杀倾向或其他更极端心理健康症状的回应时,我们让AI聊天机器人特别告知他们应该联系面对面的心理治疗师或通过密歇根大学寻求危机热线,”戈埃尔说,“通过这种方式,我们调整了它的功能,以应对更普遍的心理健康需求,但在紧急情况下,特别是在极端案例中,我们特别关注确保它不会在没有适当专业知识的情况下复制结果。”
教务长表示,在心理健康领域,AI的最佳用途是作为面对面咨询的补充,而不是替代。“确实,并非每个人都能获得治疗,而且很诱人认为AI可以通过让人们获得原本无法接触的护理来填补这一空白,”教务长说,“虽然这并非完全错误,但重要的是要意识到我们现在所处的位置并不适合这种替代。”
《密歇根日报》记者多米尼克·阿帕普可通过电子邮件联系:dapap@umich.edu。请考虑向《密歇根日报》捐款。相关文章。
(以上内容均由Ai生成)