研究揭示:性别标签影响人类对AI的合作与剥削倾向
快速阅读: 《iScience》研究显示,人们更倾向于利用女性人工智能伙伴,而非男性伙伴,表明性别歧视影响已超出人际互动。研究发现,参与者与女性、非二元或无性别标签的伙伴合作意愿更高,对男性伙伴信任度较低。设计者需重视此偏见,以创建公平的AI系统。
人们更倾向于利用女性人工智能伙伴,而非男性伙伴,这表明性别歧视的影响已超出人际互动范畴。近日发表在《iScience》杂志上的一项研究考察了参与者在面对不同性别标签(女性、非二元、男性或无性别)的人类或人工智能伙伴时的合作意愿变化。
研究人员让参与者进行了一项名为“囚徒困境”的经典思维实验。在这个游戏中,两名玩家可以选择合作或独立行动。如果双方选择合作,双方都将获得最佳结果。但如果一方选择合作而另一方不合作,不合作的一方将获得更高的分数,从而产生一种“剥削”对方的动机。若双方均不合作,则两者的得分都会很低。
研究表明,人们利用人工智能伙伴的可能性比利用人类伙伴高出约10%。此外,参与者更愿意与女性、非二元或无性别标签的伙伴合作,因为他们预期对方也会选择合作。而对男性伙伴的信任度较低,导致参与者与其合作的意愿降低,尤其是女性参与者,她们更倾向于与其他“女性”代理合作,这种现象被称为“同质偏好”。
研究者表示:“观察到的人类与人工智能代理互动中的偏见可能会影响其设计,例如,为了最大化人们的参与度并建立对其互动的信任。这些系统的设计者需要意识到人类互动中存在的不良偏见,并积极努力在交互式人工智能代理的设计中减轻这些偏见。”
当参与者选择不合作时,原因主要有两个:一是他们预计对方不会合作,因此不愿承担低分的风险;二是他们认为对方会合作,独自行动可以减少低分的风险,尽管这会对对方造成不利。研究将后者定义为“剥削”。结果显示,当伙伴被标记为女性、非二元或无性别时,参与者更有可能“剥削”对方。如果对方是人工智能,剥削的可能性会进一步增加。男性参与者更倾向于剥削对方,但与人类伙伴相比,他们更愿意与人工智能合作。女性参与者则比男性更愿意合作,且对人类或人工智能伙伴没有明显偏好。
该研究未能吸引足够多的其他性别参与者,因此无法得出关于其他性别如何与有性别标签的人类和人工智能伙伴互动的结论。
越来越多的人工智能工具被赋予人类特征(如性别和名字),以鼓励人们信任并与其互动。然而,如果不考虑性别歧视如何影响人们的互动,可能会加剧现有的偏见,使歧视问题更加严重。
虽然对性别化的AI代理表现出歧视态度本身可能不是重大伦理挑战,但它可能助长有害的习惯,加剧社会中的性别歧视。研究者补充说:“在不久的将来,人们可能会经常与自动驾驶汽车共享道路,或由AI管理工作日程。这意味着我们可能需要像与人类合作一样与AI合作,因此对AI性别偏见的认识变得更加重要。”
通过理解偏见的根本模式和用户感知,设计者可以致力于创建有效的、值得信赖的人工智能系统,这些系统能够在满足用户需求的同时,促进并维护诸如公平和正义等积极的社会价值观。
(以上内容均由Ai生成)