如何保护求职者免受 AI 支持的歧视
快速阅读: 《每日》消息,研究表明,AI在招聘中的应用可能加剧对弱势群体的歧视。目前法律难以应对AI筛选系统的新型歧视问题,需加强监管和透明度。专家建议,在完善保护措施前,应避免完全依赖AI做招聘决策。
人工智能工具正快速重塑职场环境,特别是在招聘、管理及员工晋升方面。据最新发布的《负责任的人工智能指数》,到2024年,62%的澳大利亚公司将一定程度或广泛采用AI进行招聘。这类系统能够对求职者进行分类、排序和评分,评估其性格、行为或能力,进而决定谁能进入下一环节,谁被淘汰。然而,这些系统带来了独特且新颖的歧视隐患。它们以远超人力招聘官的速度与规模运行,求职者往往不知晓自己正被AI评估,而这些决策又难以理解。我的研究深入探讨了此问题,发现雇主在招聘过程中使用AI筛选系统(如简历筛选、评估及视频面试),对女性、老年劳动者、残疾求职者及口音明显的英语使用者存在严重偏见风险。相关法律监管尚未赶上步伐。
**AI面试官的崛起**
为了开展研究,我不仅采访了招聘专员与人力资源专业人士,还与AI专家、开发者及职业顾问交流。同时,我审视了澳大利亚市场上的两大主要软件供应商所提供的公开资料。结果显示,雇主运用这些AI筛选系统的方式可能加剧并放大对边缘化群体的歧视现象。这种偏见可能源于数据或算法模型,也可能由组织使用系统的方法引起。例如,某些AI筛选系统可能对残疾人不兼容或未经验证。一名职业顾问提到,他的神经多样性客户,即他在大学课程中的佼佼者,未能通过性格测试,这被认为是因为其非典型答案导致低分,从而无缘招聘流程的后续步骤。
**缺乏透明度**
回答问题时间限制可能过短或未向候选人明确说明。有职业顾问指出,不明晰的时间限制让部分客户“刚答了一半就中断了”。此外,其他案例显示,新的就业壁垒正在形成。求职者若想参与AI评估,则需配备手机、稳定的网络连接并掌握一定的数字技能。这可能导致部分申请者主动放弃竞聘或中途退出流程。
**现有保护措施**
当前的联邦及州级反歧视法规适用于雇主因使用AI筛选系统引发的歧视行为,但仍存漏洞。这些法律亟待细化与强化,以应对新型歧视形式。例如,可修改法律框架,一旦AI系统被指控对候选人存在歧视,应将举证责任转移至雇主,要求其自证清白。目前,此类指控的证据压力全落在求职者肩上,鉴于AI筛选系统的复杂性和隐秘性,这对他们而言实属艰难。任何隐私立法修订也应涵盖招聘中使用AI系统的解释权利。新任阿尔巴尼斯政府还需落实其规划,针对“高风险”AI应用(比如招聘用AI)引入强制性防护机制。保障措施应包括确保训练数据具有代表性、系统对残疾人友好,并接受定期独立审核。同时,我们需要迅速为雇主提供指导,帮助他们在采用新AI技术时合规操作。
**是否该禁用AI招聘系统?**
一些团体呼吁全面禁止在澳大利亚就业市场中应用AI。在《工作的未来报告》中,众议院常设委员会建议禁止在人力资源领域完全依赖AI做最终决策而无人工监管。这一建议有一定的合理性——至少在适当防护到位且我们充分了解这些系统对澳洲职场公平影响之前。正如一位受访者所言:
娜塔莉·希德博士,墨尔本大学麦肯齐博士后研究员
本文由《对话》授权基于知识共享许可重发。欲读原文,请点击链接。
(以上内容均由Ai生成)