AI聊天机器人及其对女性的偏见
快速阅读: 《The Financial Express》消息,新研究探讨AI聊天机器人在共情能力上的表现,发现GPT-4o在认知共情上得分高但难以理解人类经验,且在愉快情境下缺乏共情。研究还揭示AI对女性更显共情,可能存在性别偏见。专家呼吁关注AI共情的利弊,确保其补充而非取代人类互动,同时解决伦理与包容性问题。
自从生成式AI聊天机器人问世以来,它们便迅速风靡全球。尽管存在诸多安全顾虑,人们依然倾向于使用它们来分享自己的情感和情绪,甚至将其视为治疗师,要求它们对自己的思想进行心理分析。随着争议不断延续,人们无法停止将它们与人类进行比较,因为本质上存在的质疑在于它在某些方面优于人类,甚至可能在某些任务中取代人类。其中一些质疑是正确的,而另一些则可能有些夸大其词。与其猜测,不如谈谈最人性化的——共情能力,以及AI聊天机器人在这方面表现如何。
我们有一项新的研究正在分析AI聊天机器人如何复制人类的共情能力。斯坦福大学、德雷克塞尔大学和加州大学的研究人员进行了一项名为《对话、倾听、连接:探索人机互动中的共情》的新研究,试图了解人类与人类之间以及人类与AI之间的共情表达和接收方式有何不同,以及什么因素能激发人类与AI的共情。他们还分析了人格属性(如性别、共情性格特质,包括共情关怀、换位思考以及与讲述者共享的经历)以及细致调整如何影响AI改善其与人类共情一致性的能力。
他们要求一组人类和OpenAI的GPT-4o阅读一些关于人类积极和消极的故事,并在1到5的评分尺度上评估他们对每个故事的共情程度,然后比较这些回应。研究表明,GPT-4o在共情评估方面的得分较高且变化较小,尤其是在共情的认知维度上。这意味着GPT-4o难以完全理解或传达对人类经验的理解。他们发现,聊天机器人总体上比人类表现出更多的共情倾向。同时,他们也发现它在愉快时刻未能表现出共情,这种模式放大了人类的倾向。“当讲述者的情况令人愉悦时,人类往往会有共情反应,而即使经过细致调整,GPT-4o也没有表现出对此的意识,”该研究指出。
他们还发现,当被告知它正在回应的人是女性时,聊天机器人会表现出更多的共情。这一发现凸显并印证了生成式AI聊天机器人存在的性别偏见问题。一位研究人员,来自加州大学的马吉·赛夫·埃尔·纳斯尔被引用说:“这一发现非常有趣,值得进一步研究和探索,它揭示了一些大型语言模型的偏见,”并补充道,“测试GPT或其他AI模型的后期版本是否存在这种偏见将会很有趣。”
此外值得注意的是,虽然个性化AI可以改善共情参与,但它也可能引入偏见或未能满足特定的情感需求。“在医疗保健领域等,共情AI提供了好处,但也引发了对过度依赖及保护人类情感支持价值的担忧。我们希望这项研究突出理解和共情AI的利弊的重要性,并确保它补充而非取代人类互动,同时解决伦理和包容性问题,”研究人员指出。
AI代理的进步正在转移沟通,特别是在心理健康领域,AI聊天机器人提供可访问且无评判的支持。例如,关于Replika(一种AI聊天机器人)的研究显示,用户与AI建立了比与人类更强的情感联系和更深的纽带。还发现,与AI的亲密互动可以引发苦乐参半的感觉,过于拟人化的行为可能引发恐惧。但是,研究人员关注的核心问题是这些系统如何有效表达共情,这是以人类为中心设计中的关键环节。
研究人员表示,这项研究指出了理解AI如何真正传达共情的一个空白,特别是在焦虑、抑郁和孤独等问题日益加剧的情况下。
(以上内容均由Ai生成)