欧盟 AI 法案简报 – 第 4 部分,AI 在工作中
快速阅读: 《民主与技术中心》消息,文章讨论了欧盟《人工智能法案》对工作场所AI使用的规范,强调高风险AI系统的限制与义务,包括通知员工、进行基本权利影响评估(FRIA)等,但私营雇主引入AI前大多无需评估基本权利影响,且FRIA结果不必完全公开,限制了员工的知情权与监督权。
在工作场所中,人工智能行为准则明确指出,除了用于医疗或安全目的外,禁止使用旨在基于生物特征数据“识别或推断自然人情绪或意图”的情感识别系统。准则明确排除了用于识别身体状态(例如疼痛或疲劳)的系统,这类系统则被允许。如果合法且符合《人工智能法案》及其他相关欧盟及国家法律,则不被视为禁止。实时远程生物特征识别——在特定条件下允许。
《人工智能法案》在执法背景下明确禁止实时远程生物特征识别(第5(1)(h)条),隐含地承认了在非执法目的下使用此类系统的合法性。因此,雇主可以在《人工智能法案》框架下合法引入并使用此类系统来监控员工,即使这些系统可能受到《通用数据保护条例》或其他法律的限制。
高风险系统有限的保护措施
《人工智能法案》的主要内容是规范高风险人工智能系统的开发和部署,这些系统总体上是允许的,但受到各种保障措施的约束,从一般的通知要求到有效补救措施的可用性不等。
如果一个人工智能系统被列入《人工智能法案》附件III,则该系统可被认定为高风险。这包括在就业和自雇情况下部署的系统,特别是:i) 招聘与选拔;ii) 晋升与解雇;iii) 任务分配与监控;iv) 绩效评估(附件III 4(a))。
高风险分类对于关键基本权利保护的启动至关重要。高风险系统受制于风险管理义务,包括识别高风险人工智能系统可能对健康、安全或基本权利造成的风险,向部署者披露透明度义务,以及关于人工监督的保证等。
适用于所有部署者的义务
《人工智能法案》对部署者施加了一般性义务,包括确保一定程度的人类监督和监控人工智能系统的运行。就工作场所而言,《人工智能法案》明确规定了部署者需履行的具体告知义务,要求部署高风险人工智能系统的部署者在实施此类系统之前,通知工人代表和受影响的工人他们将受到人工智能系统的约束(第26(7)条)。
序言为超出简单通知要求提供了空间,指出该法案不影响欧盟法律规定的工人咨询程序(序言92)——然而现有的法律以零散的方式覆盖了咨询程序。
《工人安全与健康指令》要求在规划和引入新技术时,与工人和/或其代表就设备选择、工作条件和工作环境对工人安全和健康的影响进行咨询(第6(3)(c)条)。《告知和咨询雇员指令》要求超过一定规模的雇主就可能导致工作组织发生重大变化的决定与其雇员进行咨询,同时将实际安排的监管权留给成员国(第4(2)(c)条)。因此,该指令有可能涵盖更广泛范围的人工智能系统,不仅限于影响工人的安全和健康。然而,尚待观察引入人工智能是否属于成员国定义的“重大变化”范畴。
《人工智能法案》对部署者施加了一般性义务,包括确保一定程度的人类监督和监控人工智能系统的运行。
《2002/14/EC指令》中的咨询义务已被最近通过的《平台工作指令》解释为包括“可能导致引入或对自动化监控系统或自动化决策系统使用产生重大变化的决定”(第13(2)条)。该指令还详细规定了数字劳动力平台需要向平台工人、其代表和国家主管当局提供的信息,特别是在自动化监控和决策系统的情况下(第9条)。然而,重要的是要记住,该指令仅适用于通过数字劳动力平台组织的工作(第2(1)(a)和(b)条)。这包括完全在线完成的工作,如专业任务如软件开发或翻译服务,或者以混合方式结合在线沟通与现实活动的工作,例如运输服务或食品配送(见序言5)。因此,还需观察《2002/14/EC指令》中的咨询义务在多大程度上适用于传统工作场所。
从权利保护的角度看,咨询只是第一步——如何进行咨询以及结果被采纳的程度对于确保其有效性至关重要。
《人工智能法案》为欧盟或成员国的工人开放了更有利于他们的立法可能性(第2(11)条)。因此,例如,工人或其代表是否可以否决引入人工智能系统取决于现有的国家法律和集体协议。
适用于公共机构部署者或提供公共服务的部署者的义务
《人工智能法案》为公共机构部署者设定了额外义务,这些机构承担更高的标准。如前所述,公共机构不得部署未由提供者事先在公共数据库中标识和登记为高风险的人工智能系统。此外,该法案要求公共机构在部署附件III中列为高风险的人工智能系统之前进行基本权利影响评估(FRIA)(第27条),并将正在使用的高风险人工智能系统注册到公开可用的数据库中(第26(8)条)。
尽管这些义务对于确保工作场所中人工智能系统使用的透明度和问责制至关重要,但仍有一些重要的细节需要注意。履行FRIA的义务不仅适用于受公共法约束的实体,尤其重要的是,也适用于提供公共服务的私人实体。根据AI法规,此类实体被视为提供“与公共利益相关的任务”服务的实体,例如在教育、医疗保健、社会服务、住房以及司法行政等领域(序言第96条)。列出的内容并不全面,为涵盖其他职能的实体留下了空间。
FRIAs是一项独特的规定,可能是其中较为积极的部分。然而,遗憾的是,这项义务仅限于上述特定且狭窄的情形,这意味着多数私营雇主在引入AI系统前无需对其可能影响员工基本权利的情况进行评估。一旦完成评估,雇主无须公开FRIA的全部内容,只需向国家监管机构通报结果即可,这限制了员工的知情权及监督的可能性。
除进行FRIA外,AI法规还要求公共部门的部署者或其代理实体,在公共数据库中登记所有高风险AI系统,以易于获取的形式提供关于AI系统的基本信息(第71条),并特别包含基本权利影响评估和数据保护影响评估的概要(附件VIII 第C部分)。基于此,工人可以期望看到任何预期的基本权利影响的简要总结,以及雇主所采取的任何缓解措施。
(以上内容均由Ai生成)