AI 和 Grief-bots 可以教会我们如何支持悲伤的人
快速阅读: 据《医疗保健博客》称,专注哀悼的AI兴起,因其无条件支持和即时响应满足了人们对情感慰藉的需求,但也暴露了人类支持体系的不足。本文探讨了AI的优势与局限,呼吁人们从中学习,改善人际间的哀悼支持。
数字哀悼支持的兴起
我们正在目睹人类最普遍的经历之一——哀悼——处理方式的一次转变。近年来,多家公司开始开发与哀悼相关的技术,用户可以与已故亲人的AI版本互动,也可以借助通用AI平台获得哀悼支持。这不是单纯的猎奇,而是对真正缺乏人际连接和支持的回应。专注于哀悼的AI兴起揭示了我们社会的一些令人尴尬的现象:人们正在转向机器,因为他们从身边的人那里得不到所需的支持。
为什么人们选择数字而非人类支持
哀悼技术行业正在快速发展,麻省理工学院《技术评论》报道指出,至少有六家中国公司正在提供与已故亲人互动的AI服务。Character.AI、Nomi、Replika、StoryFile和HereAfter AI等公司让用户能够创建并与已故者的“化身”互动,同时许多用户也将AI视为快速缓解和解答哀悼问题的方式。
这种数字化迁移并非孤立发生,而是对现有支持体系失败的直接回应:
社交不适:
我们的不懂哀悼的社会在如何应对失去方面感到困惑。朋友和家人往往在几周内消失,让哀悼者在最需要支持时感到孤立,尤其在几个月后更是如此。
专业障碍:
传统哀悼咨询费用高昂,预约时间漫长。许多治疗师缺乏适当的哀悼培训,有些甚至表示其课程中完全没有涉及哀悼相关内容。这导致人们在最需要时无法获得便捷且专业的支持。
害怕被评判:
人们通常觉得与AI分享个人哀悼经历比与可能评判、给出不必要建议或因哀悼强度而感到不适的人类更安全。
ELIZA效应
要理解为何专注于哀悼的AI能够成功,我们需要追溯到1966年,当时开发了首个名为ELIZA的AI陪伴程序。由麻省理工学院的约瑟夫·维兹鲍姆创建,ELIZA通过简单的模式匹配模拟对话,具体模仿了以人为中心疗法的罗杰派心理治疗师。
罗杰派疗法非常适合此类实验,因为它高度依赖于重复对方所说的话。AI陪伴的核心任务很简单:通过问题如“这让你有何感受?”或“请告诉我更多关于此事。”来反射对方所说的话。
维兹鲍姆惊讶地发现,人们与这个简单的程序建立了深厚的情感联系,倾诉他们最私密的想法和感受。这一现象被称为“ELIZA效应”。
ELIZA之所以有效,不是因为其复杂性,而是因为它体现了有效情感支持的核心原则,这是我们社会可以学习的(或在某些情况下重新学习)。
AI和“悲痛机器人”做对了什么
现代专注于哀悼的AI成功的原因与ELIZA相同,但功能有所增强。以下是AI的优势所在:
无判断力的存在:
AI不会回避哀悼的强烈程度。它不会告诉你“向前看”,也不会建议你“现在应该已经克服了”,更不会在你的痛苦变得令人不适时转移话题。它只是见证并反映。
无条件的可用性:
哀悼不分工作时间。它可能在周二凌晨3点、家庭聚会期间、工作时或买菜途中突然袭来。AI随时待命,通过快速缓解常见哀悼经历提供即时支持,例如“我在超市看到一个看起来像我妈妈的人,我是不是疯了?”
AI的回应展现了有效的确认:
“你并没有疯。当你哀悼亲近的人时,这种经历非常常见。你的大脑被设计成识别熟悉模式,尤其是对你而言重要的面孔……这完全正常。你的大脑仍在处理你的损失,这些识别瞬间表明你妈妈在你的记忆和意识中依然深深存在。”
简单的、按需确认帮助哀悼者迅速感到正常和被理解。
纯粹关注哀悼者:
AI不会抢夺你的故事来分享自己的经历。它不会提供未经请求的建议,也不会对反复讲述同一故事感到厌倦。它的注意力完全属于你。
无议程的确认:
与人类不同,人类可能会急于让你感觉好些(通常是为自己好),而AI确认情绪时不试图修复或改变它们。它正常化哀悼而不将其病态化。
隐私和安全:
AI保密地为你哀悼的“美好、糟糕和丑陋”部分保留空间。无需担心社会评判,无需担忧给他人添麻烦,也无需担心说错话。
无条件的关系:
AI不需要情感回馈。它不会最终需要安慰,不会因你的哀悼时间过长而感到疲惫或抛弃你。
AI能做到,但人类能做得更好。好得多。
根据2025年《哈佛商业评论》文章,2025年至今AI的主要用途是治疗和陪伴。
这告诉我们,在生活艰难时,我们在彼此面前的表现存在巨大且不断扩大的差距。尽管如此,几乎所有人在面对困难时都更希望从朋友、家人、同事和社区获得关怀和理解,而不是与AI交谈。
那么,我们可以从AI中学到什么?人类有哪些独特的技能是AI永远无法做到的?
AI可以始终如一地出现,但人类可以带着背景出现:
AI随时待命,可通过实时反馈验证对话。但人类可以带来历史参考。你可以在他们所爱之人的生日发送“想念你”的短信,或在节日期间问候。
AI可以跟随对方的引导,但人类可以读懂字里行间:
AI会反射回人们分享的内容并提出开放性问题。但人类可以感知“我很好”并不意味着“我很好”,需要更多支持。
AI可以跟随对方的引导,但人类可以读懂字里行间:
AI可以鼓励重复,但人类可以编织故事:
AI可以跟随对方的引导,但人类可以读懂字里行间:
AI可以不厌其烦地倾听同一个故事。但人类可以每次注意到新细节或回忆随时间变化的情况。你可以真诚地说:“自从我们上次谈起你父亲已经有一段时间了。我很想听听他最近是如何出现在你脑海里的。”
AI可以提供虚拟存在,但人类可以提供实际存在:
AI通过对话提供即时支持。但人类可以通过说“周四我要去超市,你需要我带什么?”来实际出现。
AI可以承认失去,但人类可以纪念整个生命:
AI验证某人的重要性。但人类可以通过分享记忆和自然提及他们的名字来延续他们的记忆:“我记得莎拉有多喜欢辣食。我相信她会喜欢这家餐厅。”
AI可以在被召唤时回应,但人类可以预见沉重的哀悼日:
AI在有人联系时回应。但人类可以提前提供支持:“我知道下周是你母亲去世后的第一个母亲节。我已经腾出了时间,以防万一。”
AI可以通过语言提供安慰,但人类可以提供身体存在:
AI通过回应确认情感。但人类可以坐在共享的沉默中,给予需要多久就持续多久的拥抱,或者简单地说:“我没有语言,但我在这里。”
AI可以通过语言提供安慰,但人类可以提供身体存在:
机会
我们如此渴望同情的回应和存在,以至于现在可以从不具备真正同情能力的工具中获取它们。但如果,而不是屈服于数字替身,我们用此作为一面镜子来看到我们未能相互提供的东西呢?
教训不在于AI正在取代人类联系,而在于AI正在向我们展示(或提醒我们)人类联系应有的样子。
使专注于哀悼的AI有效的每一个特征都是人类可以做得更好的事情,而且还有真正的同情心、共同经验和真实、面对面关怀的好处。
我们正经历一场哀悼素养危机。我们对死亡和失去的不适创造了这样一个社会:哀悼者感到孤立和不被理解。但这些数字哀悼同伴为我们提供了改变的蓝图。
问题是:我们会愿意向它们学习吗?
梅利莎·卢纳迪博士是Help Texts的首席临床官,她通过短信在全球范围内提供临床上合理、多语言的哀悼支持。
分类:
健康科技
标签:
AI机器人,死亡,数字心理健康,哀悼,Help Texts,梅利莎·卢纳迪
(以上内容均由Ai生成)