军用 AI 陷入速度和控制之间的紧张关系
快速阅读: 据《计算机周刊》称,琼斯认为AI可提升军事决策和技术效率,但需改善数据实践。施瓦茨担忧AI在军事中的应用会加剧复杂性和伦理问题,而盖茨主张加速发展以防落后。施瓦茨强调还需投资人类对话与外交,警惕AI可能导致的去人性化。
军事领域的AI潜力
比如,鲁伯特·琼斯中将认为,更广泛地应用人工智能可以帮助英国国防部更好地应对现代战争那模糊不清的背景,这种战争的特点是敌方身份不那么明确,且存在代理人冲突。“战争变得更加复杂了,胜利和成功的定义变得更困难。”他说,并补充道,人工智能的作用在于帮助指挥官在最短的时间内做出最优决策。
“对于不熟悉国防领域的人来说,这是一场竞赛——你必须比对手更快、更优地做出决定。如果他们比你更快地做出决定,即便这些决定并不完美,他们也可能占据优势。”
除了提升技术决策能力的潜力外,琼斯还指出,国防机构运作的成本高昂意味着人工智能也能用于提高后端效率,从而释放更多资金用于前线作战能力。“人工智能能带来巨大的效率提升,减少对人力的依赖,释放资金——目前英国国防急需释放部分资金以实现前线设施的现代化。”他说。
此外,琼斯提到,尽管技术能提升决策能力和提高后端效率的潜力很大,但这取决于英国国防部是否能够改善其基础数据实践能力,以便有效利用其拥有的海量信息。
琼斯补充说,英国国防组织应该先从后端开始部署人工智能,以建立对该技术的信任,然后再转向更复杂的应用场景,如自主武器和其他AI驱动的前线系统:“构建一个可以成长的AI基线。”
尽管施瓦茨同意人工智能对军事后端任务最为有用,但她认为这是因为该技术尚未足够成熟,无法应用于致命场景,而且在决策中使用人工智能只会使问题更加复杂化。
“例如,在决策方面,你需要拥有极其稳健、可靠且始终最新的数据来取代人类决策者的功能和认知能力。”她说,并补充道,技术固有的动态性在速度与控制之间创造了明显的张力。
“一方面,我们说‘我们需要在使用这些系统的所有节点上保持有意义的人类控制’,但最终这些系统的存在理由是为了进一步将人类排除在外,因此总是存在张力,”施瓦茨说道。
“之所以将人类进一步排除在外,是因为系统的逻辑与我们作为人类处理数据的认知逻辑并不完全一致。”
埃克补充说,除了认知速度与有意义的人类控制之间的明显矛盾外,还存在自动化偏见的问题,即人类更倾向于信任计算机输出结果,因为人们错误地认为结果具有内在客观性。
“当我们嵌入数字系统中时,我们更有可能信任那些我们没有时间推翻的机器决策,因为我们无法及时形成完整的心智图景。这些紧张关系在我看来不会很快消失。它们是棘手的问题,”她说。
“这让我们思考伦理问题:当人类被排除在外时,我们应该如何处理道德决策?”
虽然施瓦茨敦促极度谨慎,但AI国防初创公司赫林格(Helsing)的副主任亨利·盖茨表示,迫切需要“快速推进”军事人工智能的发展,以免英国落后于“其他不良行为者”,并能够在如何监管自主军事系统方面有更大的发言权。
“如果我们只是一个没有任何这类武器的国家……人们不会真正听我们的,”他说,并补充道,加快军事人工智能的步伐也有助于建立一种替代性的威慑力量。
“就像我们有核武器作为核战争的威慑一样,人工智能可能提供一条通往常规威慑的道路,从而减少武装冲突。”
然而,施瓦茨警告不要“把所有的希望都寄托在人工智能上以遏制战争”,她认为需要加大对人类对话、信任和外交能力的投资。
她还警告说,人工智能的社会技术特性——即特定系统的技术组件受社会过程影响,反之亦然——意味着它可能消极地影响人们对彼此的看法,导致去人性化。
“最终,不论技术如何,我们越是依赖它们,它们就越会影响我们如何看待自己以及他人,”她说,并补充道,这在人工智能领域尤其如此,因为与其他战争工具(如坦克或枪支,它们作为物理辅助工具)不同,这项技术充当一种认知辅助工具。
她还警告说,人工智能的社会技术特性——即特定系统的技术组件受社会过程影响,反之亦然——意味着它可能消极地影响人们对彼此的看法,导致去人性化。
“这一切的逻辑是什么?嗯,人工智能系统必然将其他人视为对象——边缘和痕迹——因此隐含着一种物化,这对构建人际关系造成了问题。”
(以上内容均由Ai生成)