人权组织呼吁对构成人权威胁的“杀手机器人”进行监管
快速阅读: 据《法官》称,人权观察发布报告,呼吁禁止“杀人机器人”,其六大风险包括剥夺生命权、和平集会权及非歧视原则等。报告强调需解决AI决策的“黑箱问题”以保障人权。
人权观察发布了一份关于“杀人机器人”的紧急报告,这些自动化人工智能武器能够在无人类指令或监督的情况下实施杀戮。这份报告发布于2025年5月在纽约召开的联合国首次自主武器系统会议之前。人权观察发起了一项呼吁,该呼吁得到了至少129个国家的支持,主张紧急谈判并缔结一项具有法律约束力的协议,以禁止和规范自主武器系统。
人权观察概述了杀人机器人带来的六大主要人权风险。其中最大的威胁在于侵犯不被任意剥夺生命权,这要求使用武力必须必要、适度,并以实现合法目标为前提,同时应作为保护人类生命的最后手段。人权观察指出,AI系统还带来了另一项人权风险——和平集会权。人权观察担忧,杀人机器人可能难以充分区分暴力抗议与和平抗议,因此可能会过度干涉这一权利。人权观察认为,杀人机器人可能导致“寒蝉效应”,让人们因害怕而不敢行使和平集会权。
此外,杀人机器人对非歧视原则构成风险,因为“算法偏见可能对边缘化群体造成不成比例的负面影响”。与所有AI系统类似,自动武器的问题在于其决策过程缺乏可解释性和透明度。这就是所谓的“黑箱问题”,即AI决策中的复杂性以及多种数据因素使得我们无法了解深度学习系统如何作出决策。黑箱问题进而对人权构成威胁。
关于人权的AI问题一直是联合国关注的重点,正如本月早些时候联合国专家呼吁加强对AI的监管以保障人权一样。正如阿尔农·瓦利向联合国指出的那样,战场上的AI监管迫在眉睫。
(以上内容均由Ai生成)