军事AI治理新进展:中美需共担责任
快速阅读: 西森文章提出AI军事应用风险四阶段模型及风险等级体系,强调技术、风险评估与人机交互改进,呼吁中美等国建立治理机制,包括技术标准和政治承诺,以降低AI危机概率。
西森的文章为关于如何减少军事应用中人工智能风险的辩论提供了及时且重要的贡献。其提出的危机四阶段模型——启动、行动、影响及回应——提供了一种清晰且系统的方法来理解技术故障和人为决策可能如何升级为大规模危机。同样重要的是,他提出通过概率-严重性计算、情景计数和科技成熟度评估等分析方法建立风险等级体系。在此基础上,下一步的研究和政策发展应集中于将这些分析见解转化为多层次治理机制,将技术保障措施与政治和制度安排联系起来。我认为,未来在人工智能危机治理方面的努力应在三个方向上进一步深化:微层面的技术机制改进、风险等级方法的深入审查以及在宏观层面将其置于政治-制度背景下的考量。
在技术方面,所提议的框架可能需要进一步细化,以更准确地区分可理解的错误和不可理解的错误,重新思考不同系统(例如核指挥控制与情报监视侦察)中的人机交互模式的作用。除了算法缺陷、数据不完善和传感器断连等已识别的可理解错误外,还可以引入一些实用方法来记录不同类型错误。一种方法是建立详细的错误记录系统,根据错误的性质和影响对其进行分类。对于黑箱不透明性和不受控制的自我学习等不可理解错误,则可以通过定期评估报告进行跟踪。这些报告将记录AI系统决策与预期结果显著偏离的情况,例如自主无人机误识目标或导弹防御系统未能识别来袭威胁。通过系统地记录此类偏差,我们可以开始区分由模型局限引起的AI故障与由意外外部因素引发的故障,从而对其原因和潜在解决方案有更深入的了解。
此外,要取得进展,还必须考虑人机交互在防止危机升级中的作用。人机交互模型中的人在回路(HITL)、人在环路(HOTL)和人在环外(HOOTL)的区别不仅是技术性的,而且直接影响到问责制和危机控制。负责任的治理必须认识到这些模型不是可以互换的,而应该是领域特定的。例如,核指挥控制和致命操作中的目标识别必须严格遵循HITL或HOTL架构,以确保人类问责制并遵守国际人道法。相比之下,某些情报监视侦察或后勤支持系统可能会逐步向负责任管理的HOOTL配置发展,在这些领域中,自主决策可以在不直接触发致命后果的情况下提高速度和操作效率。在这种情况下,重点应放在确保可靠性、可验证性和事后可追溯性,而不是维持持续的人类控制。然而,仅仅声称存在“人类控制”是不够的;这种控制的有效性和真实性必须能够证明。在许多名义上被标记为HITL或HOTL的系统中,人类的角色往往被简化为形式上的批准或象征性的监督,实际上很少有机会进行干预。
在风险等级方法上,可以考虑一种混合方法,既优先考虑近期风险,又保持对未来技术和应用的风险意识。概率-严重性公式原则上是有吸引力的,但由于缺乏实际军事背景下AI失败的足够数据,概率仍然无法计算。基于情景的模拟可能是一种更为可行的方法,但这些模拟也存在不完整性,因为并非所有可能的未来都可以预见。基于成熟度的方法可能是最可操作的,因为它将治理与即将部署的技术联系起来,但这种方法有可能忽视那些可能突然跃升至使用的“不成熟”技术。一种混合方法——优先考虑近期成熟的应有,同时保持对新兴技术的适应性监测——或许能提供一条更加平衡的前进道路。
在行动阶段,治理机制应认识到区分常规和核武器投送系统往往在技术上难以实现。许多投送平台,如双重能力导弹、轰炸机和共享卫星通信渠道,既用于核任务也用于常规任务。因此,试图实施技术分离可能不切实际,甚至适得其反。相反,应将重点转向建立强大的评估和危机管理机制,能够实时评估系统激活的性质和意图。例如,增强验证协议、跨域数据融合和联合态势感知框架可以帮助决策者判断系统故障或激活信号是否具有核意图。同时,危机通信渠道应纳入技术验证机制,以区分真实系统故障和故意敌对行为——这是避免升级的关键区别。
关于如何促进国家层面的人工智能危机合作,基于风险的方法确实是构建人工智能危机治理共识的必要起点。围绕共同感知的风险来框定合作,有助于协调具有不同战略优先事项的国家。为了使这种方法更具操作性,可以根据发起行为者对风险进行分类,例如政府决策、非国家干预或固有技术缺陷。同时,还可以根据紧迫性和潜在危害对风险进行排序。然而,当前的风险评级体系主要依赖于专家的主观判断,因此迫切需要开发更加标准化、数据驱动的风险评估框架。
情境分析方法同样有价值,因为它关注特定背景下的风险。例如,陆地边界或争议海域的无意升级可以作为预防治理和联合演习的焦点案例。最后,成熟度层次也增加了重要维度。人工智能系统的相对准备程度和可靠性,如自主武器的不同自动化水平,可能对危机阈值产生不同的影响。将成熟度评估整合到风险框架中,可以使各国预见到人工智能部署最不稳定的地方,以及最急需建立信任措施的领域。
然而,除了这些微观层面的改进,宏观层面的条件最终将决定治理机制是否成功。即使是最复杂的风险层次或技术分类,如果没有政治信任、战略稳定和法律规范,也无法确保稳定。危机的触发因素很少仅仅来自单方面行动或机器故障;更多时候,它们源于多个行为体的有意和无意行为,如误解对方意图或恶意行为。因此,治理安排不能仅仅依靠技术理性,而必须嵌入更广泛的政治和制度框架中。
在这方面,有三个领域值得特别强调。首先,红线共识:美国、中国和其他主要技术大国应就严格禁止的军事人工智能应用类别达成一致。这些“红线”可以作为不可逾越的门槛,减少在争议领域可能出现的失控升级风险。其次,军备竞赛克制:日益明显的“智能化军备竞赛”迹象可能导致各国陷入越来越复杂和不稳定的AI部署螺旋。如果不采取措施遏制这种动态,单方面追求优势将损害稳定。实际步骤可能包括提前通知部署、事后报告和联合危机模拟,旨在增加透明度和减少怀疑。第三,政治信任和国际法律框架:技术协议在缺乏信心建立措施和最终的国际法律工具支持下将显得脆弱。联合国和其他多边平台为发展基本原则提供了有用场所,而1.5轨和2轨对话可以促进专业知识和共识的逐步积累。随着时间的推移,这些努力可以为治理提供持久性和合法性的基础。
中国和美国在这方面负有特殊责任。作为人工智能军事系统的主要开发者和部署者,两国的互动将为世界其他国家树立先例。通过在风险分类、透明度和人机交互协议的技术标准上达成一致,同时建立政治承诺以克制使用,可以降低人工智能驱动危机的概率和后果。反之,若不采取这些措施,则可能引发无约束的军备竞赛,产生全球不稳定的影响。
(以上内容均由Ai生成)