AI 在工作中:对抗偏见的技巧
快速阅读: 《JD Supra》消息,本文探讨了人工智能在人力资源领域引发的歧视和偏见风险,强调雇主需履行《人工智能法案》规定的透明度等义务,同时指出AI可帮助识别和减少歧视,建议雇主谨慎引入AI并结合员工培训与监督,确保其公平使用。
根据欧盟《人工智能法案》,人工智能系统被定义为“一种基于机器的系统,设计时考虑了不同程度的自主性,并可能在部署后表现出适应性,无论明确或隐含的目标为何,该系统会从输入的信息中推断出如何生成输出,如预测、内容、推荐或决策,这些输出可能会影响物理或虚拟环境。”简而言之,人工智能利用算法根据概率进行预测。从所使用的数据集中,人工智能选择最有可能的解决方案。然而,这并不意味着它总是正确的。提出的解决方案基于其编程、训练数据,以及对于自我学习的人工智能,还包括学到的规则。因此,必须始终验证人工智能的输出,否则可能会出现严重风险。本文探讨了这些风险对人力资源专业人士的影响,特别是关于歧视和偏见决策的问题,并提出了一些针对雇主的关键建议。
**歧视与人工智能**
原则上,包括人工智能在内的计算机系统不会歧视。它们最初是中立和公正的。然而,如果人工智能使用有偏见的数据进行训练,这可能导致未来的结果反映这些偏见。歧视问题也可能在人工智能系统的开发阶段就出现。如果在编程过程中过分强调某些偏见或歧视性观点,即使是无意识的,也可能扭曲人工智能的输出。
由于人工智能算法的复杂性,有时作为“黑箱”操作,这意味着它们的决策可能是不透明且难以理解的。结果,识别并纠正人工智能决策和输出中的歧视模式来源尤其困难。
**人力资源背景下的风险**
人工智能系统中的歧视通常源于使用有偏见的训练数据。例如,如果一个人工智能系统使用申请人的数据进行训练,在这些数据中,具有德国或欧洲名字的申请人总是比阿拉伯名字的申请人更受青睐,那么人工智能很可能继续这一模式。这个例子可以应用于所有受保护的标准。在人力资源背景下,这些错误来源可能导致员工或申请人在使用人工智能时因各种标准而受到歧视。德国法律禁止基于种族、民族、性别、年龄、宗教、世界观、性取向或残疾的歧视,并可能导致损害赔偿要求。
**法律保护机制**
根据其用途,人工智能系统的应用可能产生深远影响,因此其中一些在《人工智能法案》中被归类为“高风险”。这些包括影响或直接决定招聘、晋升或解雇申请人的申请人筛选的人工智能系统。如果一个人工智能系统被归类为高风险,雇主必须履行各种义务。作为“运营者”,雇主通常需要履行透明度义务。如果人工智能系统是为了满足运营需求而开发或调整的,雇主也可能根据《人工智能法案》被视为“提供者”。在开发过程中有一些额外的义务,而其他义务旨在使运营者能够正确使用人工智能。
根据其用途,人工智能系统的应用可能产生深远影响,因此其中一些在《人工智能法案》中被归类为“高风险”。这些包括影响或直接决定招聘、晋升或解雇申请人的申请人筛选的人工智能系统。通过履行《人工智能法案》规定的义务,至少可以减少歧视的风险,使雇主能够更好地评估潜在问题。
**人工智能作为解决方案?**
尽管使用人工智能系统可能存在风险,但它也可用于预防或减少歧视。人工智能系统特别擅长识别和应用模式。这可以用来审查之前的选拔过程(即招聘、晋升和其他决策)是否存在无意识的模式,这些模式可能表明歧视。例如,可以分析职位描述以查看是否包含偏向某些人群的措辞,或者检查晋升或加薪的决定是否显示兼职工作的女性经常处于不利地位。
一旦确定了这些模式,雇主就可以采取行动。结果可以用于设计更加公平的招聘政策或薪酬体系,以促进同工同酬,从而缩小性别薪酬差距。根据德国联邦统计局的数据,2024年这一差距仍为16%,调整后为6%。
**雇主的要点总结**
除了仔细选择适合公司的AI解决方案并遵守德国的法律框架外,雇主还应谨慎地将任何新的AI解决方案整合到工作场所中。从一开始做对非常重要。例如,应检查IT基础设施是否提供了适当的基础来使用人工智能。员工也应及时参与进来,消除他们的恐惧并培训他们使用人工智能。如果员工(如经理或人力资源人员)能够正确解释人工智能的输出,通过这种人工监督可以进一步减少错误,包括潜在的歧视风险。将新的AI系统整合到整体数字化战略中也非常有用。
*Kliemt.HR 律师团队整理*
(以上内容均由Ai生成)