国际妇女节:为什么 AI 对女性的影响更差
快速阅读: 据《科学挪威》最新报道,人工智能在处理性别问题时可能表现出偏见,这主要源于训练数据的历史局限性和刻板印象。数据集中性别、性取向或肤色的歧视导致AI系统强化这些偏见。为解决此问题,AI系统应考虑多样化的视角,同时需确保数据集具有广泛的代表性。此外,制定AI监管法规也是确保技术公平性的关键步骤。
这份内容由UIT 北极大学 提供 – 阅读更多
国际妇女节:为什么人工智能对女性表现更差
人工智能可能会对男性和女性有不同的处理方式。这种情况是如何发生的?为什么人工智能对女性表现更差?
副教授伊丽莎白·韦特泽表示,人工智能倾向于对男性和女性有不同的处理方式。(照片:彼得·比约克伦德 / SFI视觉智能)
彼得·比约克伦德 通讯顾问
由:UIT 北极大学 呈现
发布于:2025年3月8日 – 00:00
从促进健康的科技到个人助手,毫无疑问,人工智能(AI)可以在许多方面帮助我们。但它是否能平等地帮助所有人?
“人工智能依赖大量的数据进行训练。”来自UIT机器学习小组和SFI视觉智能的副教授伊丽莎白·韦特泽说道。
韦特泽是一位AI专家,她认为这是一个重要的挑战。她指出,像工作申请系统偏向男性、女性信用额度较低以及AI难以识别女性面孔等例子。
是什么让AI算法对某些群体不公平,比如偏向男性而非女性?
韦特泽解释说:“人工智能依赖大量的数据进行训练。像ChatGPT、DeepSeek和埃隆·马斯克的Grok这样的聊天机器人基于数百万张来自互联网的图片、视频和文本。这些‘大数据’对于AI系统执行特定任务至关重要。但数据反映了历史,包括过时的刻板印象和偏见,例如性别偏见。”
“如果你查看过去十年的数据集,你会发现那些因性别、性取向或肤色而受到歧视的群体。由于人工智能被设计用于在数据中寻找模式和相关性,因此存在系统可能拾取并强化数据集中的偏见的风险。”
但数据反映了历史,包括过时的刻板印象和偏见,例如性别偏见。这可能产生重大后果,特别是对边缘化和代表性不足的群体。
“假设你有一个信用评分系统,旨在确定某人应获得的贷款数额。如果该系统基于过去60年的工资统计数据,它将发现男女之间存在显著的薪酬差距。”她说。
韦特泽解释说,然后系统会假定女性在经济责任上不如男性,女性也不适合获得贷款。“这意味着它已经学到了性别与收入之间错误的联系。”
人工智能是否应该无视性别?
如果存在人工智能滥用性别信息来区别对待人的风险,这是否意味着人工智能系统应该被开发成无视性别的?
韦特泽说:“这取决于人工智能系统的设计目的。在某些情况下,性别是一个重要因素。”
例如,某些疾病在女性中更为常见。“在这种情况下,你不想在检测这些疾病时有意忽略一个人的性别。”韦特泽说。
她解释说,如果性别信息对人工智能的任务是相关的,那么不应忽略性别信息。“但算法永远不应该使用这些信息来决定某人是否适合获得贷款。”
开发避免这种偏见的系统并不总是容易。人工智能擅长检测与性别相关的因素,即使开发者可能没有意识到数据中存在这些因素。例如,亚马逊的一个AI工具学会了忽略提到女性关联大学的工作申请。
数据中缺乏代表性
在全球社会中,每个人都需要平等代表。这同样适用于人工智能系统所基于的数据。谁被包括或排除会影响技术对不同群体的表现。
“如果某个特定群体的人在数据中没有得到与其他群体相同的代表性,系统在这个特定群体上的表现就会较差。”韦特泽解释说。
如果人工智能被训练使用男性教授的照片,它可能会假设只有男性才担任这个职位。AI开发者需要关注数据集的代表性,特别是在开发影响人们健康和福祉的决策系统时。
例如,一个AI癌症诊断系统可能在一个能够负担得起这样做的发达国家创建。人们会认为它会对所有人表现良好,但一些边缘化群体可能从未成为训练数据的一部分。该系统很可能不会很好地服务于这些人。
性别失衡
人工智能中的偏见不仅限于训练数据。人工智能劳动力本身也不平衡。全球人工智能劳动力中只有30%是女性,这意味着大多数系统是由男性开发的。这可以显著影响此类系统的开发。
“在开发人工智能时有许多需要考虑的因素。”韦特泽说。
“例如,选择哪些训练数据、神经网络和参数。这些决策是由人做出的,而今天的劳动力并不特别多元化。”
如果人工智能仅由一个群体开发,它可能只反映该群体的观点。系统可能被他们看待和体验世界的方式所塑造。这种情况很少是故意的,通常是在开发者自己没有意识到的情况下发生的。
多项研究表明,技术是由创造它的那些人塑造的。这意味着有可能单一群体忘记了包括其他人在性别歧视和种族主义方面的观点和经验。
女性榜样需求
人工智能劳动力和学术界应该反映社会的多样性,韦特泽说。增加AI开发者和研究人员的多样性对于开发对所有人都有效的AI技术至关重要。
“在这些解决方案的开发中包含不同的观点和经验是至关重要的。”韦特泽说。
她相信这一领域将会变得更加多元化。然而,仍需采取多种措施来激励女孩和女性学习、研究和发展AI。
“我们必须从小培养女孩对STEM科学的兴趣,并向她们展示STEM职业。我们也需要强大的榜样来激励她们学习和从事AI工作。”她说。
她相信这一领域将会变得更加多元化。然而,仍需采取多种措施来激励女孩和女性学习、研究和发展AI。
据韦特泽称,应给予更多关注女性研究人员及其对该领域的贡献。
需要AI监管
去年,欧盟通过了世界上第一部《AI法案》。它对欧洲和挪威负责任的AI开发和使用施加了严格要求。完整的立法将于2026年在挪威实施。
如果没有这样的指导原则,人工智能可能会加剧社会和经济不平等,包括基于性别的不平等。
韦特泽对AI法案持积极态度,认为这是朝着开发更安全、更公平的AI迈出的重要一步。
“我相信它将提供详细的指南,说明AI系统在实施前应该如何开发和测试,就像药物测试一样。有明确的指南和多个阶段必须遵循,然后药物才能使用和销售,AI也应如此。”韦特泽说。
她解释说,这项法规将鼓励开发者和研究人员根据基本伦理原则考虑如何设计AI系统。
“重要的是,AI系统不仅要服务于企业的利益。”她总结道。
此内容由UIT北极大学付费并提供
此内容由UIT北极大学的传播人员创建,他们利用这一平台与公众分享科学和研究成果。UIT北极大学是此内容由UIT北极大学付费并提供超过80个ScienceNorway.no的所有者之一。
了解更多
更多来自UIT的内容:
新研究:链球菌疫苗既安全又有效
你的锻炼计划应该根据月经周期调整吗?
研究表明这可能没那么简单
糖尿病药物无需针头?研究人员正在测试可食用胰岛素
海洋热浪不影响鱼类
益生菌对早产儿有益
教练如何让足球球员表现更好
(以上内容均由Ai生成)