中美合作防止军事AI决策盲信
快速阅读: 当前军事AI应用显著提升决策速度和效率,但也带来自动化偏差风险,如以色列“紫罗兰”系统中人类监督流于形式。美中需合作确保AI军事应用中的人类控制,防止过度依赖。
在《孙子兵法》中,孙武曾言:“兵贵胜,不贵久。” 当前,军事领域的人工智能(AI)应用提供了一种前所未有的速度与灵活性。AI系统通过实现机器速度下的决策制定,显著增强了军队的效能。
从人力驱动向机器驱动战争的转变已经开始。历史上,战争本质上是人类活动,战略、战术及决策均受人类控制。然而,传统战争模式受到决策迟缓和过度依赖人力资源的制约,这些因素限制了操作的速度和效率。战场上的AI技术快速发展和整合,为长期困扰军队的问题提供了吸引人的解决方案。AI系统不仅大大简化了决策过程,在极端压力下也能可靠运行,还提高了操作效率,减轻了后勤负担,最重要的是减少了对人类生命的威胁。
然而,这些技术进步背后隐藏着自动化偏差的风险。随着对AI依赖的加深,人类操作员越来越倾向于无批判地信任AI的判断。在战争中,决策需在毫秒间完成,人类角色可能迅速从决策者变为被动验证者。这种过度依赖自动化系统的倾向剥夺了用户的自主权。若缺乏适当监督,特别是在信息矛盾的情况下,可能会增加事故、错误和其他更广泛的影响风险。
最近的军事AI应用案例展示了这一危险。在以色列与哈马斯的冲突中,以色列国防军部署了一套名为“紫罗兰”的AI目标识别系统。该系统通过分析大量数据来确定哈马斯人员,自动生成目标清单供地面操作员使用。据报道,以色列操作员对每个由AI生成的目标仅花费20秒左右的时间进行审查和确认——这几乎不足以全面核实细节。在这种情况下,人类监督成为一种形式,致命决策主要由机器和算法驱动,人类参与仅限于盖章确认。
重要的是,依赖AI生成的决策而产生的自动化偏差风险并非孤立或静态存在,而是全球性的且日益增长。2020年美国国防高级研究计划局(DARPA)进行的F-16空战模拟实验以及2023年的X-26A VISTA(F-16变体)实弹试验表明,AI在某些战术对抗中能够超越人类飞行员的表现。这些突破不仅证明了AI有潜力取代实时交战中的人类决策,而且其能力被快速部署的速度引发了一个关键问题:AI将只是辅助工具,还是会最终替代人类在军事决策中的判断?事实上,随着主要国家已经将先进的AI系统投入军事使用并加大军事AI的投资,对过度依赖AI及其导致的人类有意义判断力减弱的担忧将变得更加紧迫和现实。
当然,人类决策并非完美无缺,历史表明战争中的误判可能导致灾难性后果。但与人类不同,AI缺乏道德判断、情境意识和责任承担能力。理想状态下,在传统的军事指挥环境中,错误的决策可以被质疑、修正或否决。相比之下,在以AI为主导而非辅助的系统中,大多数决策可能委托给AI。一旦发生AI驱动的错误,错误可能以规模和速度之大使得人类干预变得不可能。
这些挑战因中美之间加速的AI军备竞赛而更加复杂。随着两国军队获得更先进且具备AI功能的武器装备,并将其整合到军事行动中,像“紫罗兰”这样的系统可能会促使更多决策权委托给机器。这削弱了保留人类监督所需的保障措施,增加了决策被AI主导而非辅助的风险。
尽管如此,仍有一线希望。由于双方都无法假设自己在军事AI上的过度依赖不会受到自动化偏见的影响,尤其是在高压力环境下,这种风险变得相互存在,从而反映出一个潜在的合作领域。为此,采取以人类为中心的方法来应对军事系统中对AI的过度依赖,为美国和中国之间的合作提供了机会。
首先,北京和华盛顿应正式承认自动化偏见和战争中对AI的过度依赖带来的危险。在此基础上,重申拜登-习近平峰会达成的协议,即维持对核武器决策的人类控制的必要性,这一原则应扩展到所有军事AI应用。由美国总统特朗普和习近平共同发表的声明,强调在使用AI时保留人类判断的重要性,既不会阻碍技术进步,又能展示高层的政治意愿,并为全球努力限制战斗中AI无约束扩张注入新的动力,特别是当过度依赖可能削弱人类监督时。这样的声明有助于建立防止将生死决定委托给自主系统的护栏,同时促进负责任的创新。
其次,出于对自动化偏见的共同担忧,美中两国可以就“有意义的人类控制”(MHC)的原则进行对话,最终目标是将其嵌入各自的军事AI系统中。虽然这一概念得到了《特定常规武器公约》(CCW)的支持,但美中之间仍可能存在模糊性和疑虑。“有意义”被解释为“适当水平的人类判断”,但这一定义仍留有不同解读的空间和怀疑。因此,如果美中能够对构成“有意义”或“适当”的问题进行更深层次的澄清,将大有裨益。
此外,尽管美中第二轨道对话一直在努力开发共享的AI相关术语词汇表,但至今尚未达成共识。中方已经开始阐述对有意义人类控制更为具体的理解,而这一概念在美国同行使用的术语中却明显缺失。因此,在CCW的基础上,通过共同利益的指导,制定更清晰且双方认可的定义,将有助于提高对AI部署阈值的透明度,显著减少不确定性和战略误解。这些话题为中美之间的实质性和结构性讨论提供了宝贵的起点。
最后,华盛顿和北京可以通过各自进一步加强针对操作AI系统的军事指挥官和人员的培训计划,来增强这方面的能力。随着AI在现代战场上的角色不断扩大和重要性增加,对于能够有效利用、监督和理解这些技术局限性、偏差和风险的人类专长的需求也日益迫切。加强AI素养不仅表明了减轻自动化偏见和对军事AI过度依赖的风险和危险的决心,还可能传递善意和透明的信号。
此外,培训计划的内容——包括案例研究、关键教训、困境和要务——可以作为美中第一轨道半或第二轨道对话的基础或议程。从这个角度来看,努力增强各自军队对抗AI过度依赖和自动化偏见的能力,可以为建立信任和未来的美中军事交流奠定基础。
随着世界寻求利用AI在战争和决策中的速度,避免对AI过度依赖的陷阱并重新确认AI中的人类控制变得越来越必要和紧迫。以人类为中心的方法来使用军事AI可能是实现美中之间更加稳定和合作关系的途径。
*马修·杰·盛·叶是一位研究员,专注于促进美中之间的合作。他也是塔夫茨大学弗莱彻法律与外交学院战略研究中心的助理主任。马修目前在弗莱彻法律与外交学院攻读博士学位。
(以上内容均由Ai生成)