中美合作防范军事AI决策盲信风险
快速阅读: 《孙子兵法》强调速度在战争中的重要性。现代军事AI的应用加速了决策过程,提升了军队效能,但也带来了自动化偏见的风险,即人类操作员过度依赖AI判断,可能在高压环境下丧失自主权,导致错误决策。中美需合作应对这一全球性挑战,确保AI辅助而非主导军事决策。
《孙子兵法》中,孙武推崇战争中的速度,称“速为战之本”。如今,军事领域的人工智能(AI)应用提供了一种前所未有的快速与灵活。AI系统通过实现机器速度和规模的决策,大幅提升了军队的效能。
从人力驱动向机器驱动转变的战争模式正在发生。历史上,战争一直是人类主导的活动,战略、战术和决策均在人类掌控之下。然而,传统战争受限于决策迟缓和对人力资源的过度依赖,这些因素制约了作战的速度和效率。随着AI技术在战场上的快速发展和融合,为长期困扰军队的问题提供了诱人的解决方案。AI系统不仅显著简化了决策过程,在极端压力下可靠运行,还提高了操作效率,减轻了后勤负担,最重要的是减少了人员伤亡风险。
然而,在这些耀眼的技术进步背后,存在一个重大风险:自动化偏见。随着对AI依赖的加深,人类操作员越来越倾向于不加批判地信任AI的判断。在需要以毫秒计时作出决策的战争中,人类的角色可能迅速从决策者转变为被动验证者。这种过度依赖自动系统的倾向剥夺了用户的自主权。若缺乏适当监督,特别是在信息矛盾的情况下,可能导致事故、错误和其他更广泛的影响增加。
最近的军事AI应用实例展示了这一危险。在以色列与哈马斯的冲突中,以色列国防军部署了一套名为“紫罗兰”的AI目标系统。该系统通过分析大量数据识别哈马斯成员,自动生成目标清单供地面操作员使用。据报道,以色列操作员对每个AI生成的目标进行审查和验证的时间不超过20秒——这几乎只是匆匆浏览表面细节,根本无法进行全面核实。在这种情况下,人类监督沦为形式,致命决策主要由机器和算法驱动,人类参与仅限于盖章确认。
重要的是,屈服于AI生成决策而产生自动化偏见的风险并非孤立且静止的,而是全球性的,并且日益增长。2020年美国国防高级研究计划局(DARPA)进行的F-16空战模拟,以及2023年两座X-26A VISTA(F-16变体)的实弹试验表明,AI在某些战术交锋中可以超越人类飞行员的表现。这些突破显示,AI不仅有可能在实时交战中取代人类决策,而且其能力的快速部署提出了一个关键问题:AI将仅作为辅助工具,还是会最终取代军事决策中的人类判断?事实上,随着大国已将先进AI系统投入军事使用,并在军事AI上投入巨资,对过度依赖AI及其导致有意义的人类判断削弱的担忧将愈发紧迫。
当然,人类决策并非无懈可击,历史证明战争中的误判可能带来灾难性后果。但与人类不同,AI缺乏道德判断、情境意识和责任承担。在传统的军事指挥环境中,有缺陷的决策可以被质疑、修订或否决。相比之下,在AI主导而非AI辅助的系统中,大部分决策可能被委托给AI。一旦发生AI驱动的错误,其规模和速度可能使人类干预变得不可能。
这些挑战因中美之间的AI军备竞赛而更加复杂。随着两国军队获取更先进的AI武器并将其整合到军事行动中,类似“紫罗兰”系统的应用可能会增加对机器的委派和依赖。这削弱了保留人类监督所需的保障措施,使决策面临被AI主导而非AI辅助的风险。
尽管如此,仍有一线希望。鉴于双方都可能因过度依赖军事人工智能(AI)而在高压力环境下产生自动化偏见,风险因此变得共同存在,这反映出潜在的合作领域。在此背景下,采取以人为核心的方法来对抗军事系统中对AI的过度依赖,为中美合作提供了机会。
首先,北京和华盛顿应正式承认自动化偏见及对AI在战争中过度依赖的危险。在此基础上,重申拜登-习近平峰会达成的协议,即维持对核武器决策的人类控制的必要性,这一原则应扩展到所有军事AI应用。由特朗普总统和习近平主席发表联合声明,强调在使用AI时保留人类判断的重要性,同时不阻碍技术进步,不仅能够展示高层的政治意愿,还能为全球努力限制战场上不受控制的AI扩张注入新的动力,特别是当过度依赖可能削弱人类监督时。这样的声明有助于建立防止将生死决策委托给自主系统的防护措施,同时促进负责任的创新。
其次,中美双方出于对自动化偏见的共同担忧,可以就“有意义的人类控制”(MHC)原则展开对话,目标是将MHC嵌入各自的军事AI系统中。尽管《特定常规武器公约》(CCW)支持这一概念,但在中美之间仍可能存在模糊和怀疑。在CCW框架下,“有意义”被解释为“适当水平的人类判断”,但这个定义仍然留有不同解读的空间。因此,如果中美能在更深层次上澄清诸如“有意义”或“适当”等术语的具体含义,将非常有益。
此外,尽管美中第二轨道对话一直在努力制定一份共享的AI相关术语词汇表,但至今尚未达成共识。中方已经开始阐述对有意义人类控制的更为具体的理解,而这一概念在美国同行使用的术语中却明显缺失。因此,基于CCW的基础并受共同利益的指导,一个更清晰且双方共同精炼的定义将有助于提高围绕AI部署阈值的透明度,大幅减少不确定性和战略误解。这些议题为中美之间的实质性、结构性讨论提供了宝贵的起点。
最后,华盛顿和北京可以通过各自进一步加强针对操作AI系统的军事指挥官和人员的培训计划,单方面提升这方面的能力。随着AI在现代战场上的角色日益扩大和重要性增加,对能够有效利用、监督和理解这些技术固有的局限性、偏见和风险的人类专业知识的需求也愈发迫切。加强AI素养不仅表明了减轻自动化偏见和对军事AI过度依赖的风险和危害的决心,同时也传递了善意和透明的信号。
此外,培训计划的内容——包括案例、关键教训、困境和要务——可以作为美中第一轨道半级或第二轨道对话的基础或议程。从这个角度来看,努力使各自的军事力量对AI过度依赖和自动化偏见具有更强的抵抗力,可以为建立信任和未来的中美军事交流奠定基础。
随着世界寻求利用AI在战争和决策中的速度优势,避免过度依赖AI的陷阱并重新确认有意义的人类控制变得越来越必要和紧迫。以人为核心的军事AI使用方法可能是实现中美关系更加稳定和合作的途径。
(以上内容均由Ai生成)