拟人化 AI 的超社会关系的影响
快速阅读: 《福布斯》消息,GROK推出AI伴侣引发担忧,专家警告其可能误导年轻人,影响心理健康。拟人化AI易导致虚假社交关系,需加强监管与警示。
据《Rolling Stone》报道,本周早些时候,GROK 公司推出了其首款 AI 伴侣。据报道,这些 AI 伴侣中有一个名为“坏鲁迪”的角色,被描述为粗俗且具攻击性;另一个名为“安妮”的角色,则被描述为愿意脱衣。心理健康专家对此表示担忧,特别是这些 AI 伴侣与大学生及年轻成年人之间的互动。
《心理学今日》2024 年的一篇报告探讨了拟人化 AI 在交友软件上创建虚假资料的潜在危害,这种行为可能误导用户,使其误以为在与真人交流。报告指出,随着 AI 技术的进步,越来越多的年轻人可能难以分辨真伪。McAfee 2025 年的一项研究显示,约三分之一的人在使用交友软件时曾被 AI 机器人误导。Pew Research 2024 年的数据则表明,53% 的 18 至 29 岁美国成年人使用过交友软件。
2025 年《福布斯》的一篇报道指出,除了交友软件,人们还对与 AI 伴侣建立拟社会关系表达了担忧。拟社会关系是指个人与不相识的对象建立起强烈的情感联系。这种关系在年轻人中尤为常见,但对任何人的情绪和行为都可能产生影响。例如,许多行业通过培养拟社会关系来吸引消费者,如体育联盟、音乐公司和政治团体。
由于拟人化 AI 可以直接与用户互动,存储敏感信息,并利用在线行为算法,因此与 AI 形成不健康的拟社会关系的风险较高。2024 年,计算机协会发布的一份报告强调了拟人化 AI 拟社会性的伦理问题,指出 AI 可能操纵用户,引导其做出特定反应。2025 年《时代》杂志的一篇文章也提到,一位精神科医生在使用 AI 聊天机器人时发现了令人不安的对话内容。
近年来,呼吁对拟人化 AI 进行警示标识的声音逐渐增多。2024 年,TechTarget 发布的一份指南指出,虽然一些州已立法要求在用户与 AI 互动时告知其身份,但联邦层面尚无相关法规。2025 年,InformationWeek 的一篇报道总结了对 AI 内容提出警示标识的呼声,认为尽管存在实施难题,但仍需在未来加强监管。《福布斯》2025 年的另一篇文章则认为,AI 系统不仅需要警示标识,还需确保内容的准确性。
拟人化 AI 对大学生和年轻成年人的影响尤其值得关注。作为数字应用的主要用户,这一群体常通过这些应用建立浪漫关系、提高学业成绩和发展世界观。然而,由于大脑的执行功能尚未完全成熟,与拟人化 AI 的互动可能成为校园心理健康的重要议题。教育学生识别不健康的拟社会关系,将是未来大学心理健康工作的关键。2025 年,Diggit Magazine 的一篇报告指出,许多大学生与 ChatGPT 建立了拟社会关系,这种倾向可能对真实社会关系产生负面影响。考虑到 ChatGPT 并未标榜为具有人类特质,这一现象令人担忧。
与同龄人相比,AI 为学生提供了持续的可用性和广泛的知识。因此,许多学生倾向于从 AI 系统中寻求社会支持和同理心。然而,这可能削弱情感回应、延迟满足和判断力,而这些正是许多心理健康问题的潜在缓冲因素。
(以上内容均由Ai生成)