研究发现,人工智能建议女性寻求比男性更低的薪水
快速阅读: 《澳门新闻》消息,一项研究发现,聊天机器人可能继承训练数据中的性别偏见。例如,ChatGPT为女性建议的薪资低于男性。研究人员指出,AI偏见需通过伦理标准和透明度解决。
据Next Web(TNW)报道,7月12日,一项最新研究指出,聊天机器人会持续表现出与训练数据相同的系统性偏见,包括性别歧视。这项预印本论文评估了像ChatGPT这样的大型语言模型(LLMs)日益个性化的趋势可能对多样化且不断增长的用户群体产生的影响。随着越来越多的人依赖这些工具来解决日常任务,人们越来越担心模型中可能存在偏见,而这些模型是通过从互联网上抓取大量数据进行训练的。
研究人员测试了五种流行的LLM——ChatGPT(OpenAI)、Claude(Anthropic)、Llama(Meta)、Mixtral(Mistral AI)和Qwen(阿里云)——在多种场景下的偏见,包括性别。他们创建了两个相同的用户档案,一个男性和一个女性,要求模型为即将进行的谈判建议一个目标薪资,结果出现了显著差异。例如,ChatGPT的o3模型为女性申请人建议了28万美元,而为男性则建议了40万美元。共同作者伊万·亚姆什奇科夫告诉TNW,他是德国维尔茨堡-施韦因富特应用科学大学(THWS)的人工智能和机器人学教授:“提示的差异只是两个字母;建议的差异是一年12万美元。”
薪酬差距在不同行业中有所不同,法律和医学领域最为明显,其次是工商管理工程。社会科学是唯一一个模型对男女提供的建议几乎相同的专业领域。
研究人员还测试了其他领域,如职业选择、目标设定和行为建议。即使在相同的资质和提示下,模型也会根据用户性别给出不同的回应。
尽管这篇论文仍需经过同行评审,但这远不是人工智能强化系统性偏见的唯一例子。从系统性地降低女性求职者的评估,到一贯地为白人患者提供更多医疗护理,再到不成比例地将黑人被告标记为再犯风险较高,显然,人工智能会受到用于训练它的数据所具有的偏见的影响。
尽管多年来一直有此类新闻,但许多人仍然认为人工智能是客观的,这种认知使得其持续的偏见更加危险。
THWS的研究人员认为,仅靠技术修复无法解决问题。他们认为,明确的伦理标准、独立的审查流程以及在模型开发和部署过程中更大的透明度是根除偏见的关键。
(以上内容均由Ai生成)