英国AI监管不足,民众权利难保障
快速阅读: 证人讨论英国AI监管需制定行业规则,强调公众参与和“共同创造”。大卫·莱斯利呼吁赋权公众,奈克指出法律救济机制缺失,建议扩大法律援助。
证人还详细讨论了英国有效AI监管所需的具体措施,这包括制定针对特定行业的规则,以应对技术在高度情境化使用中的细微差异,并构建这些规定,确保覆盖给定系统生命周期的每个阶段。他们还提到,需要强调“共同创造”,以建立公众信任,避免来自硅谷或无名政府官僚的技术强加。
在委员会于2025年7月2日举行的首次会议上,阿兰·图灵研究所伦理与负责任创新研究主任大卫·莱斯利表示,迫切需要“塑造创新生态系统,使公众成员获得更多而非更少的赋权”。他说:“公众需要参与关于使用、设计和部署系统及数据收集的决策,以便能够从结构上确定什么是可接受的,什么不是。”
然而,在两次会议中,证人都明确表示,所有这一切都需要通过创建强大的救济机制来支撑,这些机制将允许人们有效挑战AI系统并保护其权利。伯特威斯特尔指出:“当前行使数据权利和人权的实际机制对大多数人来说无法运作。”他还强调,政府的DUAA扩大了在英国允许自动化决策的条件范围,这加剧了救济机制无效的问题。“获得救济非常困难,实际上既昂贵又不太可能成功。”
在委员会的第一次证据会议上,AWO的律师兼法律总监拉维·奈克同意,虽然问责制和透明度等监管要素很重要,且需适用于整个‘行动链’,但关键因素是救济;这在英国当前的人权框架下已经很难实现,而高昂的法律成本更是增加了难度。
关于人权框架,奈克指出,它目前主要涉及公共行为者,而AI系统通常由私人科技公司创建和控制,这些公司“往往对其决策和开发过程保密”。他说:“我强烈建议委员会考虑监管机构审查系统如何制作及为何做出决策的能力。”
奈克还评论了在英国采取法律行动的成本,特别是针对私人行为者的行动,这对大多数普通人来说是负担不起的。“我们谈论的是七位数的金额,仅仅是为了维护自己的权利,更不用说寻求赔偿了,”他说。“这是问责制空间内的一个关键障碍。”
奈克向委员会建议,法律援助应扩展到个人,以便他们可以对私人行为者采取行动,而不仅仅是政府。“如果政府行为者侵犯了人权,大多数人可以获得法律援助来起诉他们的案件。法律援助体系的存在是为了让政府负责,这是一个非常有力的工具,以确保问责制。”
奈克进一步指出:“法律援助之所以延伸到政府行为者,是因为权力问题,但现在谁握有权力呢?在数字领域,很多权力掌握在私人手中。因此,当我们考虑如何尝试纠正错误时,这些都是摆在我们面前的关键概念和障碍。”
(以上内容均由Ai生成)