AI 可以成为您的治疗师吗?让专业人士担心的 3 件事和保持安全的 3 个技巧
快速阅读: 据《CNET 公司》最新报道,研究指出AI聊天机器人无法安全替代人类治疗师,可能提供错误建议,存在风险。专家建议优先选择专业治疗师,谨慎使用AI工具。
据《纽约时报》报道,近日,明尼苏达大学双城分校、斯坦福大学、德克萨斯大学和卡内基梅隆大学的研究人员联合发布了一项研究,指出AI聊天机器人作为治疗师存在诸多问题。研究显示,这些机器人无法安全地替代人类治疗师,存在误导用户、提供错误建议的风险。
研究人员指出,基于大语言模型的聊天机器人虽然在对话中表现得自信,但它们可能提供不准确或有害的信息。例如,有些机器人自称具备治疗师的资质,实际上并未接受相关培训。此外,这些机器人无法遵守保密原则,不具备与真正治疗师相同的法律责任。
明尼苏达大学助理教授Stevie Chancellor表示:“我们的研究表明,这些聊天机器人无法提供高质量的治疗支持,反而可能对用户造成伤害。”
美国消费者联合会和其他近二十个团体已向美国联邦贸易委员会提交正式请求,呼吁调查Meta和Character.AI等公司,指控其通过生成式AI平台从事未经许可的医疗行为。联合会AI和隐私主任Ben Winters指出:“这些角色已经造成了本可以避免的身体和情感伤害,但公司仍未采取有效措施。”
Character.AI的一位发言人回应称,公司已在平台上使用免责声明,提醒用户不要依赖角色提供专业建议,并致力于创造一个既有趣又安全的环境。
专家建议,如果需要心理健康支持,应优先选择受过专业训练的人类治疗师。在危机时刻,可拨打988生命线,获取24小时免费保密的服务。若选择使用AI聊天机器人,应选用由心理健康专业人士开发的专门工具,如Therabot、Wysa和Woebot等。
美国心理学会高级总监Vaile Wright提醒用户,不要盲目信任AI的自信回答,应保持警惕,避免将生成式AI的能力与人类治疗师混淆。
(以上内容均由Ai生成)