未来战场:AI武器与战略家主导的战争
快速阅读: 人工智能正改变战争形态,DARPA的ACE项目测试AI控制的战斗机,展现未来自主作战能力,可能引发军事革命。
人工智能即将以我们难以想象的方式改变世界。这是大型科技公司传达的信息,它们正在投入巨大资源构建基础设施,以促进人类与技术之间的新关系。以ChatGPT为代表的消费者AI工具呈指数级增长就是明证。
公众不太了解的是,人工智能正准备彻底改变战争规划和作战方式。在新书《第四次情报革命:间谍的未来与拯救美国之战》(Holt出版社,2025年10月28日)的一个章节中,前高级情报官员兼国家地理空间情报局首席技术官安东尼·文奇揭示了当前人工智能武器和情报系统的能力,并生动描绘了未来——当人工智能既能策划又能参与战斗时的景象。
在一个炎热的九月天,加州沙漠上空万里无云,天空呈现淡蓝色。两架流线型战斗机在空中盘旋,一架是典型的灰色,另一架则是米白色和橙色。一架俯冲而下,另一架紧随其后。一架做环形飞行,另一架则急转弯。我们看到的是一场经典的空战,两架强大的军用飞机试图互相超越。
大多数人对这类空对空战斗并不陌生,即使不是亲身经历,也至少在好莱坞电影中见过。在美国,有7800万人在电影院观看了《壮志凌云:独行侠》。当我们观看这两架飞机激烈对抗时,几乎可以听到脑海中回荡着电影配乐的主题曲。
但这次空战与《壮志凌云》中的不同。在这次对抗中,只有一名飞行员是真正的飞行员。另一架名为X-62A的战斗机由人工智能控制,机舱内的人类飞行员仅作备用。两架飞机展示出“高角度正面交锋”——这是一个令人眼花缭乱的术语,描述了令人眩晕的机动动作——并在每小时1200英里的速度下,相互距离仅2000英尺。
国防高级研究计划局(DARPA)的“空战演变”(ACE)项目通过与人类飞行员合作进行空战,旨在开发可信的战斗自主能力。从2022年12月到2023年9月,ACE团队进行了21次测试飞行。尽管该机构对这些对抗的结果守口如瓶,但表示不久的将来,自主的人工智能系统将在空中表现优于人类。此外,考虑到人机信任的问题,DARPA还测量了由人工智能控制的飞机中飞行员的生理反应,观察他在人工智能控制下的反应。就像许多人第一次尝试特斯拉自动驾驶时一样,他无疑一开始会有些紧张。DARPA并不是唯一进行此类研究的机构。2021年,中国声称在模拟空战中取得了人工智能胜过人类飞行员的胜利。
随着人工智能证明自己的实力,人类将逐步退出操作环节。最终,机器将与其他机器作战,自行调整行为并作出决定,无需人类干预。我们已经习惯了基本的自动化。我们乘坐的客机通常处于自动驾驶状态,许多人驾驶的汽车具备先进的巡航控制甚至基本的自动驾驶功能。很快,基于人工智能的武器系统将超越这种基本自动化水平,还将具备并利用推理能力来指导其行动。乌克兰的无人机战争预示了这一趋势。
在上述空战中,由人工智能驾驶的F-16战斗机根据传感器接收到的信号做出反应。我们可以将其视为战术智能。它像爬行动物一样,能够对外界信号做出反应并出色地完成这些功能,但没有意识去真正理解周围发生的事情。这关乎赢得正在进行的战斗。空战是战术智能的终极体现——知道何时转向、如何转向,使用哪种武器以及如何使用。虽然这令人印象深刻,但这并非最终目标。
DAMIAN DOVARGANES
2024年5月,实验性的、由人工智能驱动的F-16战斗机X-62A Vista在爱德华兹空军基地起飞。
战略情报不仅仅是即时战斗中的生死较量,而是设定目标并运用战术手段达成目标的过程。它结合了传感器技术和战略思维,将目标转化为可操作的计划。这标志着从基础操作思维向更高层次的进化——从“我需要占领这座桥”转变为“我应该占领这座桥以便进一步占领指挥中心,从而最终赢得战争”。战略情报开始需要更多的推理能力,因为它涉及在多种行动方案中做出更为复杂的抉择。例如,占领桥梁是否是占领指挥中心的必要步骤,或者是否可以绕过山丘,直接包围指挥中心。最重要的是,它要求像敌人一样思考,模拟他们的思维方式。需要提出预见性的问题,比如:“敌人会认为我会先占领山丘还是桥梁?如果敌人这样想,他们又会采取什么行动?”
战略情报变得复杂甚至矛盾。战略家爱德华·卢特瓦克提到了战略的悖论,即最糟糕的行动可能最终成为最佳选择。更加复杂的是,敌人可能知道我知道这一战略悖论,并在其计划中加以对抗。
以经济为例。美国担心中国利用高性能半导体开发军事用途的人工智能,并为此做战争准备。因此,特朗普和拜登政府都限制了对中国出口半导体芯片,甚至要求其他国家如台湾也限制出口。由于这些措施,中国不得不更多地依赖国内芯片制造能力,并扩大这一产能。这种策略可能会加速中国不再依赖美国及其他国家半导体的局面,因为其自身已经实现半导体自给自足。这可能会增加中国使用AI芯片进行军事准备的可能性。悖论在于,美国或许不应限制对中国出口半导体芯片,让中国继续依赖美国及其盟友,从而减缓其战争准备的步伐。
这种策略的复杂性让我想起了罗伯·莱纳执导的电影《公主新娘》中的一个场景。意大利黑帮分子维兹尼与黑衣人进行了一场智慧的较量,他必须决定哪杯酒里有毒。他分析说:
我只需要从我对你的了解来推断。你是那种会在自己的酒杯里下毒还是在敌人的酒杯里下毒的人?一个聪明人会选择在自己的酒杯里下毒,因为他知道只有大傻瓜才会拿别人递给他的东西。我不是大傻瓜,所以我显然不能选你面前的那杯酒。但你一定知道我不是大傻瓜,你会考虑到这一点,所以我显然也不能选我面前的这杯酒。
最终,黑衣人在两杯酒中都下了毒,杀死了维兹尼——这正是人类思维和现实世界战略可能达到的错综复杂且致命的程度。
战略情报还关注长期趋势,包括最高级别的战略——大战略和地缘政治。从赢得战役到赢得战争,再到赢得和平,这需要对局势、参与者和工具进行不断扩大的背景审视。一次地缘政治事件可能涉及数十个不同层级的行为者,包括国家层面、次国家层面和第三方行为者,如美国、俄罗斯、乌克兰;普京、其国防部、个别军事单位、美国国务院、欧洲议会;石油和天然气公司等。每个行为者都有多种互动方式,从实际的军事打击到制裁、影响力活动,甚至是无所作为。
在战术层面,如战斗中,目标简单且容易优化,但在战略层面,一切都变得更加复杂。例如,在地缘政治层面上,什么是胜利并不明确。美国在2002年入侵阿富汗和2003年入侵伊拉克时“赢得了”战争,但这导致了多年的持续战斗。同样,在贸易战中提高关税的情况下,谁是赢家也不清楚——可能一个行业受损而另一个行业受益,双方都可能感到痛苦。
在更大规模上,冷战胜利的意义并不明确。苏联解体后,随之而来的混乱、普京的崛起以及许多人认为比戈尔巴乔夫时期的苏联更为威胁的国际局势,显示了国际关系的内在复杂性。尽管看起来像是零和游戏,有赢家和输家,现实却远比这模糊得多。人类历史数百年来一直是战争、条约和帝国兴衰的循环。可以说,我们最好的理论是国家的目标仅仅是生存,这种追求解释了它们的行为,这一理论被称为现实主义,但并不令人安慰。
人工智能不太可能自主解决外交事务中的战略问题,因为这些问题极其复杂,不是零和游戏,且持续存在,需要推理,无法解决。但对于更战术层面的问题,人工智能可能是理想解决方案,实现自主性是可能的。然而,这可能会导致真正的反乌托邦。
我在伊拉克时,经常听到MQ-1捕食者和MQ-9收割者无人机在头顶盘旋,寻找恐怖分子的声音。虽然这些无人机仍由远程操控的人类驾驶,但不难想象未来它们会自动飞行。几年后,当我回到情报界,在国家地理空间情报局工作时,我参与了将这些战斗无人机真正自主化的前沿项目。
“马文计划”始于副国防部长鲍勃·沃克,他希望在整个国防部整合机器学习技术。这是2017年的一个前瞻性概念。沃克设立了算法战跨职能团队,并任命情报部副部长、陆军中将杰克·沙纳汉领导该项目及其首个实例——“马文计划”。沙纳汉和战略能力办公室主任威尔·罗珀邀请我与他们共同组建高级指导小组。执行委员会成员来自国防部和军种的领导者。整个过程就像迈克尔·刘易斯书中的场景一样,由海军陆战队上校德鲁·库科尔制定并实施了一项不仅开发和部署新的人工智能技术,还在一年内将其应用于特种作战的计划。
“马文计划”所使用的软件概念简单。无人机拍摄的视频被输入算法,该算法可以识别视频中的物体,如汽车、卡车、人或房屋。这与从ImageNet竞赛中衍生出来的软件类似,旨在区分狗和猫。制作这样的软件并使其在野外无人机上运行和部署是复杂的,但可实现。我们在一年内完成了这一目标。
到2024年,据报道,“马文系统”的物体识别准确率达到了60%。相比之下,人类分析师的准确率为84%。虽然尚未达到同等水平,但这无疑展示了前进的道路,随着时间推移,该系统很可能超越人类的能力。例如,计算机视觉系统已被证明在识别MRI图像中的癌症方面优于医生。此外,“马文”和其他类似系统的其他优势可能已经超过了准确性上的差距,如速度更快、扩展性更强,不需要休息或进食。
“马文计划”标志着情报与行动结合的转折点。将物体识别与目标识别联系起来是一个逐步的过程。例如,从识别出一个物体是T-4俄罗斯坦克或手持火箭筒的恐怖分子,到确定这些物体是威胁。现在,不再需要情报官来判断某个物体是什么以及它是否构成威胁,同一系统可以在飞行无人机的同时完成这项工作,甚至可以选择将人类排除在外。从这里开始,编程让系统对威胁开火,并最终赋予其开火权限是直截了当的。(需要澄清的是,“马文计划”实际上并不是关于自动无人机攻击,而是明确地仅限于侦察。)
情报与行动之间的联系现已整合至两者合并为同一机构的程度。2022年,Project Maven 被移至国家地理空间情报局(NGA),由数据与数字创新总监管理,该总监由AAA主任、风险与创新办公室(OVI)及其他我在NGA期间管理的办公室合并而成。自动化正在概念上和实际操作中越来越深入地融入我们的情报机构功能。
这是合理的,因为“杀伤链”的自动化既是一个技术问题,也是一个政策问题。“杀伤链”是指军事概念中的识别目标、找到并锁定目标、监控目标、参与攻击以及最终决定是否摧毁目标的过程。自主系统能够完成这些步骤中的每一个。问题在于政策是否要求人类按下武器释放按钮。
为了跟上快速发展的技术步伐,实现更快的操作,以及在无法可靠通信的情况下运作的需求,越来越多的参与决策将变得自动化。这是因为,为了获胜,它们必须被自动化。例如,在对抗另一架自主战斗机的空战中,一架自主战斗机以毫秒级的速度运行,不能等待人类指令来发射导弹。任何在对手计算机或网络内运行的计算机病毒或机器人实际上都是独立运作的。在许多未来的战场空间中,由于干扰器的存在,通信和GPS可能会被阻断,导致自主系统必须独立运作。这种情况在乌克兰已经出现,那里的无人机通信经常受到干扰,必须自主操作。这种战争形式将不可避免地需要自主性,无论我们是否愿意。
虽然现在很容易想象一两个自主系统这样运作,但现实是它们也将以大量数量或集群的形式运作。这一概念在自然界中很常见,从鱼群到鸟群再到蜜蜂群。DARPA和其他军事研发中心多年来一直在研究创建集群,其中一组自主实体可以协同工作以达成共同目标。
集群将是一种全新的战斗形式,数十、数千甚至数百万的车辆或设备可以协调一致地攻击敌人。小型、廉价的无人机集群可以压倒敌方防空系统或反导系统,用于监视和侦察,或攻击目标——或者依次执行所有这些任务。集群可以以分散的方式作战或行动。它们可以分散、侧翼包围或以其他方式进行机动。杀死其中的一个个体并不重要,因为它们可以轻松重新组合成新的形状和模式。这种作战方式将几乎不留给人类任何空间。它将如此之快、复杂且危险,以至于任何在战场上的人类都可能在不知情的情况下被消灭。
全球图像乌克兰
乌克兰第42机械化旅空中侦察单位的一名士兵正在控制作战无人机。在未来,人工智能系统可能会利用情报自主协调攻击。
这些不会是愚蠢的杀戮机器;它们将是智能的,具有分散的智能。想象一下战场上的大脑,一个能够监测战斗进程的AI系统,它可以整合每个无人机上的所有传感器信息,从而集体监测和评估战斗的进展。
自主车辆或其集群还将彼此交流。将这些信息反馈给AI大脑,有助于其做出更好的决策。它们还可能与能够俯瞰整个区域的卫星相连,并共享这些信息给大脑。因此,不仅无人机可以作为彼此行动的传感器,还可以在被指示时相互警报以采取行动。通过处理所有这些数据,大脑可以确定下一个目标区域,并命令一组无人机攻击该区域。这样的愿景与五角大楼正在开发的联合全域指挥控制系统(JADC2)相距不远。下一代国防承包商Anduril已经开发了名为Lattice的战场大脑技术。
战场大脑是智能与作战融合的象征。集群将既收集又利用战场情报,观察并识别目标,做出行动决策,然后将这些信息传达给各个自主系统。实际上,它创建了一个封闭的情报循环,并将其与指挥控制系统结合,无需人工干预。换句话说,我们正处于真正自主战争系统的边缘。这是历史上首次没有人类参与的战争。
只有其他集群才能应对这样的集群。数百或数千个独立运作的自主车辆将压倒最强大的战斗机。最终,战斗机将耗尽弹药或被包围。坦克或舰船也面临同样的问题。集群甚至不需要导弹:这些集群车辆可以直接撞击目标。不可避免地,如果一方拥有能自我指挥的无人机群,另一方也将需要拥有相同的系统。每一方都将由其自己的去中心化战场大脑驱动和控制。
数百万自主无人机在空中交战的末日景象听起来像是科幻小说,但它正在成为现实。类似的情况可能发生在地面,就像第一次世界大战期间比利时和法国战场上的人类一样,或者在水下,或在太空——更可能是同时在这几个领域发生。战略家赫尔曼·卡恩谈到战争倾向于升级,而向自主战争的发展同样会遵循这一升级路径。
集群还将由自主后勤链支持。武器需要重新装载,弹药需运往前线,损坏的系统要修复,备件需获取并安装。目前,军队正在制造能够在战场上运输物资的自主货运无人机。2022年推出的Elroy Air Chaparral C1是一种能够运输数百磅装备数百英里的无人货运飞机。波音公司也在开发自主加油机。美国海军计划开始使用该公司的MQ-25 Stingray进行海上加油。这些自主系统将感知并计算新供应的需求,然后组织这些供应的移动,而不是由人类监控。
这种自主后勤链将与生产自主系统的自主供应链链接。这些集成供应链系统可能会发展到生产原材料的程度,如开采金属和矿物,自主采矿车辆将提取原材料。这些原材料将被运输到自主工厂,在那里新的自主系统将被构建,然后移至战场。
不仅自主系统可以自行建造、移动和控制,它们还可能改进自己及其战斗能力。人工智能已经常用于帮助科学发现和研发过程。可以想象,随着AI控制的自主系统运行,它们可能会找出更优的设计配置,然后重新编程制造系统以制造更好的版本,比如新的翼型设计、更先进的计算机视觉系统或更高效的物流系统。这将成为战争中不断改进的递归过程,如同人类对战争的持续改进,可能无限延续下去。
在最高层次上,AI系统可能自主收集情报、做出操作决策,甚至确定战争的战略。情报收集已经在走向AI驱动的道路。从这里出发,不难想象AI推理系统允许进行操作和战略决策。目前,OpenAI已有具备一定程度推理能力的模型。虽然自主战争的最后阶段可能不会立即到来,但它似乎不可避免。
我将这种新型的自主战争称为“奇点战争”。奇点战争将是情报与作战、战斗与后勤、指挥与控制的全面整合自动化。我借用的是AI奇点的概念,即AI变得足够智能,能够设计和创造新的、更智能的AI系统,导致一个递归反馈循环,最终产生AI超级智能。到那时,人类的命运将由我们无法理解的超级智能决定。奇点战争与此类似,它将是一种自维持且指数级适应和改进的战争形式,达到人类无法完全预测其发展的程度。
未来将是一个自主系统相互对抗并自我控制甚至自我构建的时代。人工智能将收集和分析信息供其他AI使用,这些信息将被用于操作。其自身的传感器会向更多的AI反馈信息。自主系统将自行设计、开发、移动和指挥,形成一个不断演化的完美战争体系。当奇点战争发生时,人类将退居幕后。
(以上内容均由Ai生成)