在 AI 满足 DEI 和歧视时为雇主提供建议
快速阅读: 据《JD Supra》最新报道,本文为顾问雇主提供关于使用人工智能工具在就业歧视和多元化、公平性及包容性(DEI)方面的指导和最佳实践。尽管人工智能能帮助减少偏见,但仍存在潜在的歧视风险,如数据偏见、编程错误及集体诉讼风险。雇主需理解相关法律义务,审慎使用AI工具,以避免增加歧视并保障员工权益。
2024年11月21日发表于《法律360》。© 版权所有2024,组合媒体股份有限公司,《法律360》的出版商。此处内容经许可转载。本文为顾问雇主提供关于使用人工智能工具相关的关键就业歧视和多元化、公平性和包容性(DEI)法律问题的指导和最佳实践。具体而言,本文探讨了人工智能潜在的反歧视和DEI相关的好处和风险。人工智能的潜在反歧视和DEI相关好处
许多雇主越来越关注增强其DEI和反歧视工作,努力提高他们吸引、保留、支持和提升多元化工作者的能力。人工智能工具可以帮助雇主以多种方式实现其与DEI相关的反歧视目标。与传统的人类审查相比,人工智能工具的一个潜在优势是——至少理论上——它们应该没有偏见。毕竟,算法不会像人类那样有同样的经历,这些经历可能会导致他们明确或隐含地重视某些身份的候选人或员工。人类可能会对某些个体或群体表现出无意识的偏见,因为他们认为这些人与自己相似。雇主可以使用人工智能工具提供培训、职业路径指南或其他针对员工的工具,帮助所有身份的员工发展职业生涯、提高技能或找到合适的岗位。
人工智能的潜在歧视和DEI相关风险
尽管当深思熟虑地使用时,人工智能可以帮助雇主改善其反歧视和DEI工作,正如上述所指出的所有原因,但也存在许多潜在的风险。也许与人工智能工具使用相关的最大的DEI相关风险是潜在的就业歧视。人工智能的潜在歧视和DEI相关风险无论雇主的雇佣决定是由人类完全执行,还是完全或部分借助人工智能技术执行,联邦和州级的歧视法规都适用。因此,您必须向使用人工智能工具的雇主提供建议,他们必须始终拥有并保持对适用歧视法规义务的坚实理解,并且这些义务不会因为部署一个人工智能工具而消失。虽然全面概述适用的就业歧视法规超出了本文的范围,但有许多联邦和州级法律规范了这一领域的雇主。例如,根据联邦法律:《民权法案》第七章禁止基于种族、肤色、宗教、性别——包括怀孕、性取向和性别认同——或国籍的就业歧视。《雇员年龄歧视法》禁止歧视40岁及以上的个人。《美国残疾人法案》禁止基于精神或身体残疾的歧视。《遗传信息非歧视法》禁止基于遗传信息的歧视。这些及其他歧视法可能禁止两种类型的歧视。第一种是差异对待,发生在由于某人属于受法律保护的类别而对其故意进行歧视的情况下。第二种是差异影响,发生在表面上中立的政策或做法——包括选拔程序或测试——因某人属于受保护类别而对其造成不当不利影响的情况。虽然使用人工智能理论上可能涉及这两种类型的歧视,但正是这第二类情况构成了对不明智雇主的最大陷阱。因为通常很难理解算法为何或如何做出特定决策,所以员工或候选人可能更难证明雇主通过算法进行了故意歧视。但是这个同样观点也可能使雇主更难提供一个坚实的非歧视理由来解释该决定。
人工智能工具如何可能增加歧视的风险
即使雇主在使用人工智能工具时没有歧视意图——即使是希望增加多样性的雇主使用这样的工具——也可能因为技术的本质及其可能使用的环境而面临歧视索赔的风险。人工智能系统的性能取决于其输入的数据。如果人工智能系统训练的数据带有偏见或代表性不足,它就有复制这种偏见的风险。现有的数据源可能反映了先前或现有的偏见——或者仅仅是某些群体的历史代表性不足。如果一个人工智能驱动的工具以其训练数据来源摄入了这样的数据,它可能会无意中放大而不是减轻这种偏见。换句话说,随着一个人工智能工具的算法学习,模型继续反映代表性不足群体的缺乏或青睐历史上代表群体的风险。人工智能系统的性能也取决于创建它们的人类。因此,人工智能偏见也可能源于编程错误,开发人员可能会错误地强调某些因素,或者由于他们自己的偏见。例如,一个简历筛选工具可能被编程为自动拒绝那些在其就业历史中显示了特定时间段空缺的候选人。虽然一个善意的程序员可能认为这将过滤掉不可靠的候选人,但它也很容易无意中过滤掉因医疗条件、残疾或生育而不得不离开劳动力市场的个体。或者考虑一个依据地理位置招聘新候选人的算法。如果该算法被编程为更青睐某些邮政编码而非其他,优先考虑历史上白人或富裕社区可能会无意间造成歧视。AI工具,尤其是生成式AI工具,是基于大量公开信息进行训练的。这可能包括来自社交媒体或政府网站等来源的各种信息,这些信息可能涉及雇主传统上不应考虑或法律禁止询问的内容,如年龄、性取向、健康状况或遗传信息。如果雇主使用基于AI的工具来分析或评估其现有的员工群体或数据,您必须建议他们对分析完成后可能发现的内容进行批判性思考。例如,薪酬分析工具可能会揭示出雇主在某一职位上的薪酬始终低于市场水平。虽然最终这可能是有用的信息,但它也可能引发员工的不满。或者这样的工具可能会揭示出受保护群体之间的无意差别对待。此外,即使某个雇主使用的AI工具已经过审查和测试以确保它们不包含无意偏见,关于存在此类偏见的程序的新闻报道以及旨在减轻这种偏见的法律和指导方针,可能会增强人们对偏见存在的感知。这可能会使员工或候选人,特别是那些历史上代表性不足的群体,感到警惕。许多新的工具正在迅速推出,这可能会进一步让人觉得它们未经审查或可能被不公平地或歧视性地使用。对于这些工具让历史上代表性不足的群体感到更加孤立或边缘化的情况,希望增加其DEI(多样性、公平性和包容性)努力的雇主应谨慎行事。
歧视索赔和诉讼的风险
尽管这是一个快速发展的法律领域,但您应该建议雇主,仅仅因为索赔可能基于新技术,并不意味着此类索赔的风险是理论性的。随着越来越多的雇主在就业关系的不同方面使用越来越多类型的AI辅助技术,这类诉讼可能会继续增多。虽然所有与就业相关的诉讼都存在风险,但与使用AI相关的索赔有其特定的风险,包括以下几点。许多潜在原告软件的使用会迅速影响到许多员工。与只有一个可能偶尔做出非法决定的招聘经理,甚至是一个故意单独做出此类决定的“坏苹果”不同,由算法做出的决策可能会同时且反复影响数百名员工。集体诉讼风险这意味着集体诉讼索赔的风险更高。鉴于其性质,差异影响索赔通常作为集体诉讼提出。集体诉讼给雇主带来了一系列风险,从取证到潜在和解变得更为复杂,因此管理和辩护成本更高。取证挑战并不总是清楚AI工具如何做出决策;如前所述,算法可以是一个黑箱,所以试图解开它们的决策过程绝非易事。这意味着审计或记录支持或解释AI工具如何得出结论可能是困难的,甚至是不可能的。这一困难可能因这些工具通常是第三方程序而加剧,雇主需要为此类程序付费。与个人招聘经理不同,他们的笔记或记录在诉讼中更容易提供给雇主,而第三方记录可能不易获得。因此,即使电子记录存在,雇主也可能难以获取与索赔相关的数据,如果这些数据不在雇主手中的话。所有这些都可能增加任何与AI相关的索赔的复杂性,并同样增加辩护的成本。额外考虑
除了遵守反歧视法和指导方针外,雇主还应意识到在使用AI时还有其他陷阱。如前所述,AI工具汇总了大量的数据以做出决策。有时,更多的数据并不意味着更好的决策。其中一些数据应该是保密的,或者是敏感的。这可能包括有关医疗状况或治疗、员工休假、绩效或薪酬的信息,员工可能不希望这些信息被分享,不应该广泛传播,或者雇主可能没有传统上依赖的信息。您还应考虑由AI驱动工具中的算法做出的决策结果的可靠性。如上所述,这些程序仅与其训练的数据和创建它们的人类工程师一样好。因此,即使这些结果不违法,也存在不公平结果的可能性,结果无法令人满意地解开或解释,甚至可能出现明显的错误。监控对于用于监控员工的AI工具,您应建议雇主考虑员工监控所引发的伦理问题。即使这种监控不违反任何适用法律,这也应得到确认,重要的是要考虑到文化上员工如何看待持续监控——以及这可能如何影响工作环境。致力于营造包容文化以增强归属感的雇主可能会发现,这些努力因工具而受挫,这些工具让员工感觉自己的每一步都被监视,并且感到不受信任。
(以上内容均由Ai生成)