新研究揭示了人工智能如何加剧不平等
快速阅读: 据《欧亚评论》最新报道,研究人员指出,人工智能的偏见源于社会权力动态,而非单纯的技术缺陷。例如,亚马逊的招聘工具偏好男性候选人,加剧了性别差异;政府的欺诈检测系统错误指控移民家庭,加重了歧视。这表明缺乏透明度和问责制会使人工智能放大而非消除偏见。研究呼吁在设计和监管过程中提高透明度与包容性,以确保人工智能促进社会公正。
研究人员挑战了普遍存在的观点,即人工智能导致的偏见是一种技术缺陷,而认为人工智能深深受到社会权力动态的影响。它从受人类偏见影响的历史数据中学习,吸收并加强现有的歧视。这意味着,人工智能不是制造不平等,而是复制和加强现有的不平等。“我们的研究强调了一些现实中的例子,在这些例子中,人工智能强化了现存的偏见。”比尔坎教授说。“一个显著的例子是亚马逊的人工智能招聘工具,该工具被发现更倾向于选择男性候选人,最终加剧了就业市场上的性别差异。同样,政府的人工智能欺诈检测系统错误地指控了许多家庭,尤其是移民家庭,导致严重后果。这些案例表明,如果没有透明度和问责制,人工智能不仅不会消除偏见,反而会放大歧视。人工智能可能会成为一种固化现有社会层级结构的工具,而不是挑战它们。”
人工智能是在一个更为广泛的生态系统中开发的,在这个系统中,公司、开发者和政策制定者对它的设计和使用做出了关键决定。这些选择决定了人工智能是减少还是加剧了不平等现象。当在反映社会偏见的数据上进行训练时,人工智能系统在招聘、警务和福利分配等高风险领域复制了歧视行为。比尔坎教授的研究强调,人工智能治理必须超越科技公司和开发者层面。鉴于人工智能依赖用户生成的数据,必须在设计、部署和监管过程中提高透明度和包容性。否则,人工智能将继续加深数字鸿沟,扩大社会经济差距。
尽管存在挑战,但这项研究也带来了希望。“我们工作的主张并非是接受人工智能的缺陷不可避免,而是倡导积极的政策和框架,确保人工智能服务于社会正义而不是削弱它。通过从一开始就在人工智能中嵌入公平性和问责制,我们可以利用其潜力带来积极的变化,而不是让它强化系统性的不平等。”比尔坎教授总结道。
(以上内容均由Ai生成)