军方采购AI需兼顾速度与责任
快速阅读: 在地缘政治紧张和AI军备竞赛背景下,军队面临加快AI技术部署与负责任使用两大挑战。采购流程需平衡简化与合规,确保技术安全可靠,符合国际法,同时促进军事创新与伦理标准。
在紧张的地缘政治环境和明显的人工智能(AI)“军备竞赛”背景下,寻求整合AI能力的军队正面临两个重要问题。首先是如何加快这些新型且迅速发展的技术的部署和扩展,这些技术现被视为实现战略主导地位的关键。其次是如何实施军事领域内负责任地使用AI的承诺。
AI能力的采购面临多重挑战,其中包括当前军队中缺乏AI专业知识的人员,以及AI能力供应商的多样性,这些供应商包括非传统参与者,如科技初创公司。这使得适应AI的采购流程变得复杂,在某些情况下还增加了风险。例如,将部分AI采购决策下放给个别单位或指挥部可能会减少繁文缛节,但这也可能意味着这些决策未经过具备AI知识的官员审查,他们能够看穿行业炒作。选择行业主导的现成解决方案可能比让供应商根据军队规格开发新系统快得多,但对新AI能力的设计、开发和测试控制较少,增加了部署不符合部队需求甚至劣质或不安全系统的风险。
负责任的行为原则不仅适用于AI能力的使用,也适用于这些能力的采购过程。那么,军队如何能在简化采购流程的同时,推进和发展与军事领域内负责任地使用AI相关的准则?
本文探讨了国家为何以及如何将适应军事AI采购流程的步骤与负责任行为的原则相协调。
各国长期以来一直认为利用军事AI的好处是一项战略要务。2017年,俄罗斯总统普京曾表示,“谁成为这一领域的领导者,谁就将成为世界的主宰”。美国国防部2018年的《人工智能战略》指出,将AI能力融入武器系统对于防范近邻对手至关重要,其他国的投资于AI“威胁到我们的技术和作战优势”。近年来,这种威胁感知愈发强烈,各国正在竞相采用军事AI应用,从后勤到前线。预计AI将在情报、监视和侦察(ISR)、维护和物流、指挥与控制(包括目标定位)、信息和电子战以及自主系统等领域为军事领域带来重要的机遇。
法国、美国、英国和日本政府,以及欧洲议会和北约,已经制定了指导其在军事AI方面负责任(有时称为“伦理”)行为的原则。加拿大也在2024年承诺制定“AI伦理原则”。
许多其他国家也支持了关于军事AI负责任行为的国际原则:2023年美国领导的政治宣言、2024年荷兰和韩国领导的《行动蓝图》,以及今年2月在巴黎举行的人工智能行动峰会上通过的《巴黎宣言》。
这些文件从高层政治声明到战略文件再到技术指南不等,但它们共享一些特征。例如,当提到国家在使用军事AI时应遵循的规范时,许多文件都强调了“负责任”、“合法”或“道德”行为的重要性,确保AI能力的安全性和可靠性,最小化和缓解偏见的影响,以及确保人员对技术有充分的理解(例如,确保技术适当透明、可解释或可审计)。它们还强调了对AI使用后果负责和问责的重要性。
遵循负责任行为的原则需要将军事条令、战术、技术和程序与人工智能能力相关联,以确保这些原则在实践中得以实施。国家不仅必须确保这些能力的使用符合原则设定的要求(例如,军事人工智能能力的使用需符合国际法),还必须确保采购过程本身满足这些要求(例如,在投入使用前对军事人工智能能力进行法律审查)。
“简化”与“负责任”采购之间的张力
适应人工智能能力的军事采购流程是可能产生矛盾的一个领域。简化采购途径以促进人工智能的采用可能会与负责任行为原则所要求的管理方式相冲突。
在适应军事采购流程以应对人工智能时,有三个主要原因需要军事采购参与者时刻牢记负责任行为的原则。首先,影响军事人工智能能力如何使用的决策(包括它们能否被负责任地使用)通常是在采购过程中做出的。其次,无论是传统的国防工业公司还是科技初创企业,军事人工智能能力的供应商都需要对其客户对所采购的人工智能能力有何期望有明确和确定的认识。第三,实施负责任行为原则的关键措施可能与采购过程同步进行或成为其一部分。然而,这一点需要进一步研究,以确定在采购阶段,负责任行为原则具体要求军事部门做什么。
理解军事人工智能能力采购中的负责任行为
美国国防部在其2022年的《负责任的人工智能战略与实施路径》中概括了简化与负责任的人工智能采购之间的紧张关系,认识到需要在整个AI产品和采购生命周期中“适当谨慎地考虑潜在的人工智能风险…同时使人工智能开发能够以国防部所需的速度满足国家防御战略”。
一些负责任行为原则在采购过程中的含义是显而易见的。与合法性原则(即军事人工智能能力的开发和使用应符合国家和国际法律)相关的,是对正在考虑的人工智能能力进行法律审查,以确定其是否能按照国家的法律义务使用。关于安全性和可靠性原则,需要在采购阶段对人工智能能力进行严格的独立测试和评估。与供应商建立确保设计和改进人工智能能力时适当的信息共享的关系,包括通过合同,对于在采购阶段实施与安全性和可靠性相关的原则也很重要,特别是考虑到人工智能能力发展的非线性和迭代性质。与偏见最小化或缓解原则相关的一项实施措施是谨慎管理用于开发和测试人工智能能力的数据。最后,让人工智能能力的预期用户参与采购过程可以促进他们对这些人工智能能力的理解(更不用说支持这些能力的责任使用,如果被采购的话)。
其他方面则较难联系起来。其中一个问题是人工智能能力的技术性能可能是不透明的,且资源密集型和难以测试评估,这影响了采购方履行安全性和可靠性原则的能力。另一个问题是人工智能能力的发展通常是迭代和压缩的。尖端的人工智能能力是通过快速的设计、测试和基于反馈的改进过程开发出来的。这挑战了传统上线性和耗时的采购流程,以及基于风险避免、缓解和管理预期的负责任行为原则。
行动的机会
一些军队和国防部已经在适应或计划适应其采购实践,以应对迅速采用人工智能能力的需求。例如,乌克兰已经实施了广泛的采购改革,包括与先进技术采购相关的改革。这些改革旨在简化和加速
从规划到实施的程序(尽管官员承认,基于前线需求的快速采购节奏可能会使长期采购计划复杂化)。其他国家正在关注乌克兰如何将其技术采购实践适应极端作战需求。例如,瑞典授权其国防采购机构与乌克兰当局在采购事务上合作。美国国防部的《负责任人工智能战略及实施路径》包括与采购相关的行动。北约议会大会科学和技术委员会去年通过的一份特别报告承认,需要调整采购流程以促进武装部队中人工智能的整合。中国的军民融合战略旨在将民用领域的技术无缝集成到军事领域,这涉及试验新的AI能力。
关注修改采购流程以促进AI能力的采用,为各国提供了实施负责任行为原则的机会,贯穿采购的不同方面:流程设计、评估采购选项的标准设定、参与采购决策的人员选择、供应商的选择以及时间框架。各国可以通过加强国与国之间的交流来抓住这一机会,讨论负责任的军事AI与采购流程之间的关系,包括在未来的REAIM峰会或联合国大会等相关论坛上(继联合国秘书长于2025年8月建议各国建立一个‘专门且包容的过程,全面应对军事领域的人工智能问题及其对国际和平与安全的影响’)。
各国还可以借鉴民用领域AI相关采购的经验。为国家采购AI制定的民用标准通常可以提供指导,尤其是在该国没有针对军事的具体AI采购指南时。例如,世界经济论坛的《政府AI采购指南》、电气和电子工程师协会的《人工智能和自动化决策系统采购标准》以及类似的地方文件。最后,各国可以与供应商合作,共同开发负责任采购实践的理解。将高级政治和战略文件中关于负责任行为的期望转化为供应商的一部分,是采购过程的重要环节。
加快军事AI能力的采用不应以牺牲负责任行为的承诺为代价。将采购流程与负责任行为的原则相协调,对于确保和维持政府领导人、武装部队人员以及他们保护的民众对军事AI的信任至关重要。
(以上内容均由Ai生成)