AI 的“奥本海默时刻”:为什么需要新的裁军思维
快速阅读: 据《欧亚评论》最新报道,联合国专家呼吁减缓AI竞赛,强调技术社区与政策制定者合作的重要性。专家们警告AI武器化风险,呼吁加强监管和国际合作。微软等公司承诺确保AI符合人权标准,但监管挑战和责任缺失仍是难题。
由朱丽叶·梅尼撰写
联合国裁军专家和大型科技公司领导人一致认为,人工智能(AI)竞赛需要放缓,IT公司应将重点放在更大的图景上,以确保这项技术不会在战场上被滥用。
联合国裁军研究所(UNIDIR)的联合副所长戈西亚·洛伊表示,与技术社区互动对国防政策制定者来说不是可有可无的附属品,而是“不可或缺”的。她强调,从一开始就让技术社区参与设计、开发和使用指导AI系统和能力安全与安保的框架至关重要。
她在日内瓦联合国裁军研究所主办的全球人工智能安全与伦理大会上发言时指出,在世界正经历常被称为AI“奥本海默时刻”的背景下,建立有效的护栏尤为重要——这一比喻指的是美国核物理学家罗伯特·奥本海默,他因主导制造原子弹而闻名。
联合国裁军研究所官员强调,为了确保AI发展尊重人权、国际法和伦理,特别是在AI引导武器领域,必须进行监督,以保证这些强大的技术以受控且负责任的方式发展。
技术缺陷
AI已经给世界各国政府和军队带来了安全困境。由于AI技术具有民用和军事双重用途的性质——它们可以在民用和军事环境中同样使用——这意味着开发者可能会失去对战场条件现实的认识,其编程可能导致生命损失,Comand AI公共事务主管阿尔诺·瓦利警告说。
尽管这些工具仍处于起步阶段,但长期以来一直引发担忧,即它们可能被用于做出生死决定的战争环境,从而消除人类决策和责任的需求。因此,越来越多的人呼吁进行监管,以避免可能导致灾难性后果的错误。
“我们经常看到这些系统出问题,”总部位于伦敦的Advai公司首席执行官大卫·萨利指出,“这些技术仍然非常不鲁棒。”
“所以,让它们出错并不像人们想象的那么难,”他补充道。
共同责任
微软团队专注于安全、保障、包容性、公平性和问责制的核心原则,数字外交总监迈克尔·卡里米安说。
比尔·盖茨创立的这家美国科技巨头对执法部门使用的实时面部识别技术施加限制,以防止可能造成身心伤害的情况,卡里米安解释说。
他告诉日内瓦联合国的活动,必须制定明确的安全保障措施,并且公司必须合作打破孤岛。
“创新不是在一个组织内部单独发生的事情。共享是一种责任,”卡里米安说,他的公司与联合国裁军研究所合作,确保AI符合国际人权标准。
监督悖论
部分问题在于技术发展速度如此之快,各国难以跟上。
“AI的发展速度超过了我们管理其诸多风险的能力,”国际电信联盟(ITU)战略规划主管兼秘书长特别顾问苏利娜·纳比哈迪说。
“我们需要解决AI治理悖论,认识到法规有时落后于技术,这使得政策和技术专家之间持续对话以开发有效治理工具成为必要,”阿卜杜拉女士补充说,同时指出发展中国家也必须获得席位。
问责缺失
早在2013年,著名人权专家克里斯托夫·海因斯在一份关于致命自主机器人(LARs)的报告中警告说,“把人类排除在外也意味着将人性排除在外”。
联合国人权事务办公室(OHCHR)发展权司司长佩吉·希克斯今天依然坚持认为,将“生与死”决定交给人类而非机器人至关重要。
反映社会
虽然大型科技企业和治理领导者在AI防御系统的指导原则上基本意见一致,但这些理想可能与公司的底线相冲突。
“我们是一家私营公司——我们也追求盈利,”Comand AI的瓦利先生说。
“有时很难找到系统的鲁棒性,”他补充道。“但在这一领域工作,责任可能是巨大的,绝对巨大的。”
未解难题
尽管许多开发者致力于设计“公平、安全、鲁棒”的算法,根据萨利先生的说法——但没有实施这些标准的路线图,公司甚至可能不知道自己具体想实现什么。
这些原则“都规定了采用方式,但并没有真正解释如何实现”,萨利提醒政策制定者,“AI仍处于早期阶段”。
大型科技企业和政策制定者需要跳出框框思考,着眼于更大的图景。
“对于一个系统而言,鲁棒性是一个极其技术性的、极具挑战性的目标,目前仍未得到解答,”他继续说道。
没有AI“指纹”
自称支持AI系统监管的萨利先生曾为联合国授权的全面禁止核试验条约组织(CTBTO)工作,该组织负责监测是否发生核试验。
但他表示,识别AI引导武器提出了全新的挑战,与携带法医学特征的核武器不同。
“在国际层面如何执行任何监管存在实际问题,”这位首席执行官说。“这是没有人愿意面对的问题。但除非这个问题得到解决……我认为这将是一个巨大的障碍。”
未来的安全保障
联合国裁军研究所会议代表强调了战略预见的必要性,以了解当前诞生的前沿技术所带来的风险。
Mozilla公司培训新一代技术人员,该公司负责人伊利亚斯坚称,未来的开发人员“应该意识到他们正在使用这种强大技术做什么以及他们正在构建什么”。
南非斯坦陵布什大学的摩西·巴尼·卡尼莱等学者认为,大学也肩负着“重大责任”来保护核心伦理价值观。
斯坦陵布什大学国防人工智能研究中心主任卡尼莱博士表示,军事利益相关方——这些技术的预期用户——和作为监管者的政府之间的利益必须“达成一致”。
“他们必须将AI技术视为一种善的工具,因此他们必须成为善的力量。”
国家参与
当被问及他们会采取哪些一项具体行动来建立国家间的信任时,来自中国、荷兰、巴基斯坦、法国、意大利和韩国的外交官也发表了看法。
“我们需要在高新技术出口控制方面定义国家安全界限,”中华人民共和国驻联合国裁军大使沈建表示。
未来AI研究和发展的路径还必须包括物理学和神经科学等其他新兴领域。
“AI很复杂,但现实世界更加复杂,”荷兰裁军大使兼裁军大会常驻代表罗伯特·因登博施说。“因此,我认为重要的是还要融合其他技术来审视AI,特别是网络、量子和空间技术。”
(以上内容均由Ai生成)