特朗普AI行动计划在国家安全上力度不足
快速阅读: 一年前文章指出AI自主武器威胁国际稳定,美《AI行动计划》旨在减缓致命AI扩散,但内部矛盾可能削弱效果。
一年前,我们在《国家利益》杂志上撰文指出,人工智能(AI)驱动的自主武器系统威胁到国际体系的稳定。过去一年的技术和战场发展使得这一威胁更加紧迫。美国领导减缓致命AI扩散的需求比以往任何时候都更加明显。特朗普政府的《AI行动计划》是朝着正确方向迈出的一步,尽管其内部存在可能最终使其效果适得其反的矛盾。
AI的双刃剑效应
通过降低获得高精度火力和实现自动化杀伤链的门槛,AI驱动的自主武器正在重塑战场格局,使规模较小、经济较弱的行为者能够更好地利用非对称优势。例如,乌克兰军队利用由AI增强的第一人称视角(FPV)无人机,即使在没有GPS或人类干预的情况下也能自主识别并攻击目标,部分缩小了与俄罗斯的火力差距。类似地,廉价无人机,包括巡飞弹药,可能加强台湾对抗中国大陆两栖入侵的地理优势。
然而,推动这种重新排序的战争数字化是一把双刃剑。低门槛获取和操作高精度火力将使恐怖组织、犯罪网络和流氓国家等危险行为者受益。此外,使用AI赋能的自主武器的所有行为者——尤其是最受益于AI武器革命的低能力行为者——可能会引发更多意外升级。
以2024年底为例,俄罗斯已经使用伊朗制造的“沙赫德-136”无人机重夺前线优势,并摧毁了乌克兰的民用基础设施。伊朗方面也开始使用这些无人机恐吓以色列平民。
全球紧张局势升级
自那以后,国际形势变得更加不稳定。最近,俄罗斯无人机侵入波兰领空。假设这次入侵是有意测试北大西洋公约组织(北约)的防御协调能力,如果无人机在自主杀伤链下因压力误击机场并造成平民伤亡,事件仍可能触发北约与俄罗斯之间的直接冲突,而双方原本并未预料到这一点。
乌克兰最近击落了一架装备热成像瞄准系统、可见光谱相机和英伟达Jetson AI处理器的AI增强型“沙赫德”无人机,这些设备使无人机能够在最终阶段自主识别和攻击目标。据情报分析公司Sibylline称,欧洲各地的有组织犯罪集团正在使用无人机走私违禁品、逃避执法和实施定点攻击。俄罗斯和中国越来越多地依赖无人机进行间谍活动。
与此同时,欧洲和乌克兰的国防公司开发了如AI Warfare Adaptive Swarm Platform(AI-WASP)和Mosaic UXS等AI指挥控制软件工具,实现了空中、陆地和海上巡飞弹药的自主协调。最令人担忧的是,俄乌克战争可能加速先进无人机技术向全球不法分子的转移。
苏丹快速支援部队(RSF)——一个参与达富尔种族灭绝的准军事组织,目前与该国军政府陷入内战——于2025年5月使用无人机袭击了该国东部的机场,一年前,该组织几乎用无人机袭击了一场军事毕业典礼,险些刺杀该国最高将领。在缅甸,叛军发现可以在丛林前线大规模3D打印无人机。AI赋能的水下无人机可能对海上航运和海底通信造成破坏。
这些发展进一步凸显了减缓这些系统在敌对或鲁莽行为者手中变得更有效算法传播的必要性。
《AI行动计划》的前景
电子战技术只能部分缓解这些技术带来的不稳定影响。由于范围有限,各国难以成功部署这些技术来保护整个空域,特别是应对不可预测的内部威胁。此外,这些工具对地面和水下无人机的影响有限,无法完全破坏用于协调军事资产的自主指挥控制系统。
白宫的《AI行动计划》
这份计划包含了应对该问题的一些重要方法。它设想了一个由美国领导的“人工智能联盟”,盟友同意进口美国的硬件、模型、软件、应用程序和标准。计划要求商务部促进与“符合美国批准的安全要求和标准”的国家的出口交易。
这一联盟将阻止美国及其盟友向中国、俄罗斯和伊朗等对手出口敏感的人工智能技术。它还将排除那些缺乏有效控制敏感技术传播机制的国家。由于美国公司在商业和军事应用的人工智能市场上占据主导地位,这将激励各国与美国的安全标准接轨。
《人工智能行动计划》还呼吁对计算硬件实施严格的出口管制,包括使用美国技术的微芯片,这些芯片对于训练高级人工智能模型和在终端用户设备上运行至关重要。它呼吁制定一项“技术外交战略计划”,以在整个人工智能联盟内协调出口管制和其他安全标准。
这些都是积极的信号。白宫显然认识到先进人工智能在边界不严密情况下的内在危险。如果上述措施得以全面实施,将有助于遏制致命人工智能流向美国的对手,并促进盟国间统一的安全标准。
《人工智能行动计划》内的矛盾
然而,《人工智能行动计划》也提出了一些会妨碍这一努力的措施。一方面,它批评了前总统乔·拜登的《人工智能行政命令》所必需的“繁重的监管制度”,该命令已被特朗普总统撤销。但是,任何旨在建立和实施严格的安全标准并将其推广到国外的努力——正如《人工智能行动计划》正确地呼吁的那样——都需要监管和执法机构。这也需要专家,而特朗普政府通过大幅削减科学研究预算已经危及这些专家的培养渠道。
最令人担忧的是,该计划强烈支持高级人工智能模型的开源,白宫承认这会使它们“免费供全世界任何人下载和修改”。这直接违背了政府希望严格控制尖端软件传播的愿望。
最近,中国开发的大型语言模型DeepSeek的发布再次凸显了开源的危险。该模型类似于ChatGPT,但使用更便宜的国产硬件训练。开发DeepSeek的初创公司使用了包括来自美国科技巨头Meta的开源代码。如果没有额外的保护措施,中国等对手可以自由利用美国的开源模型进行具有军事应用的开发。
因此,高级算法的开源与美国国家安全相冲突。DeepSeek案例以及发现能够运行高级人工智能模型的廉价国产计算硬件被用于俄罗斯导弹和伊朗无人机的事实,也突显了仅靠硬件出口管制的不足。特朗普政府可以选择建立一个强大的防范致命人工智能扩散的保障体系,或者选择无限制的开源人工智能,但不能两者兼得。
《人工智能行动计划》支持高级算法的开源,源于美国希望继续在全球人工智能创新中保持领先地位。然而,美国的创新愿望不应无意中让敌对行为者免费搭便车于其技术突破,尤其是在致命人工智能方面。
关于控制人工智能的政策建议
这就是为什么我们呼吁建立一个封闭论坛,注册开发者可以在其中分享涉及军事人工智能应用的“人工智能双重用途研究关注点”(AI DURC)。最重要的限制目标将是指挥与控制软件和群体智能算法。群体智能算法模仿蚂蚁等群体解决问题的方式:每个无人机执行简单的感知和判断,但它们的集体行为能够在战场上做出智能、适应性的决策,而无需人类操作员。
国防部、商务部工业与安全局(BIS)及其他联邦机构应尽可能精确地定义AI DURC,然后创建一个许可系统,允许美国及其他盟国的研究人员访问该论坛共享代码。美国只应向能够可信展示执行相互接受的AI DURC安全标准的盟国研究人员授予访问权限,例如,可以限制为人工智能联盟成员。
国会还应通过立法,要求超大规模数据中心——即具备足够计算能力以训练最先进人工智能模型的数据中心——对其客户进行尽职调查。如果客户使用数据中心服务来训练可能致命的人工智能,该立法将要求他们获得必要的许可。同时,还要求他们实施“注意义务”协议,防止其软件出现无意升级行为、被盗以及转移给恶意和鲁莽的行为者。
国会还应指示商务部工业与安全局维持一份“黑名单”,列出不负责任、敌对和鲁莽的实体,并要求数据中心禁止这些行为者使用其服务器。最后,应指示财政部外国资产控制办公室阻止这些不良行为者进入美国金融系统,从而防止他们与领先的美国创新者进行交易。
特朗普政府随后应寻求将这一监管框架扩展到合作伙伴和盟友——特别是运营超大规模数据中心的国家——利用关税威胁。这将符合政府的观点,即外国长期以来从美国主导的世界秩序中获益,而没有公平地贡献于维护这一秩序。
平衡创新与安全
白宫的人工智能行动计划正确地认识到美国在继续引领世界人工智能创新的同时,防止其尖端技术泄露给对手的重大利益。这无疑是朝着正确方向迈出的一步。但它在平衡创新和安全这两个战略重点方面做得不够好。如果不认识到计划中的内在矛盾,它可能会同时损害这两方面。
约书亚·柯蒂斯是“美国外交政策”下一代倡议的成员,同时也是华盛顿特区“IPF Atid”分会的主席。他在华盛顿特区约翰霍普金斯大学高级国际研究学院获得国际关系硕士学位。
安东尼·德卢卡-巴尔塔是“北美繁荣与安全中心”项目的撰稿人,该项目由麦克唐纳-劳里埃研究所发起,同时也是蒙特利尔的一名“青年之声”撰稿人。他在华盛顿特区约翰霍普金斯大学高级国际研究学院获得国际关系硕士学位。
(以上内容均由Ai生成)