专家警告:AI可能引发核战争
快速阅读: 核威慑专家担忧人工智能广泛应用于军事决策,可能导致冲突升级或失控,尤其在缺乏明确指导和理解其工作原理的情况下,五角大楼虽承诺人类控制,但仍存隐患。
人工智能开始让核威慑领域的专家感到不安。具体来说,他们认为将人工智能广泛整合到军事决策的各个层面,正在形成一个“滑坡效应”,可能导致人工智能被赋予发射核武器的权力,或者掌握该权力的人类会因为过度依赖其指导而听从其指令行动。最糟糕的是,目前我们对人工智能的工作原理仍不完全理解,而测试显示,在战争模拟演习中,人工智能倾向于将冲突升级至人类可以平息的灾难性水平。
斯坦福大学胡佛战争游戏和危机模拟计划主任Jacquelyn Schneider在接受《Politico》采访时说:“这几乎就像人工智能懂得如何升级冲突,却不懂得如何缓和。”她还表示,“我们并不真正知道为什么会这样。”
随着特朗普政府寻求将人工智能应用于政府的许多方面,同时削减对其的安全监管,这一问题更加凸显。“据我们所知,五角大楼内部没有关于是否以及如何将人工智能整合到核指挥、控制和通信系统中的明确指导。”美国科学家联合会全球风险总监Jon Wolfsthal告诉《Politico》。
目前,五角大楼坚持认为在决策过程中始终会有一个人类参与。“政府支持保持对核武器的人类控制。”一位高级官员简短地告诉该媒体。
然而,像Schneider这样的专家担心,这种承诺可能会随着俄罗斯和中国将人工智能纳入其高风险军事指挥结构而逐渐削弱,或者五角大楼官员可能因一个有缺陷的人工智能系统指示无法避免冲突而陷入核战争。“我曾听到战区指挥官说,‘我希望有人能汇总所有战争模拟的结果,并在我面临危机时告诉我,基于人工智能的解读,解决方案是什么。’”Schneider表示担忧。
从某种意义上说,这些都是旧问题的新版本。据信,俄罗斯仍然维持着冷战时期的“死手”系统,该系统可以在检测到核打击时自动进行报复,尽管该系统可能目前并未激活。诚然,正如《Politico》所指出的,整个问题听起来像是末日科幻电影的情节背景。然而,即使看了那么多电影,我们似乎也无法避免滑向那样的现实。
“诚然,这样的建议会让人联想到《奇爱博士》中的末日机器、《战争游戏》中的战争操作计划响应以及《终结者》中的天网,”两位核威慑专家在2019年的一篇博文中写道,“但这些科幻电影中的预言性画面正迅速成为现实。”
更多关于军事人工智能的信息:
五角大楼签署协议部署用于军事用途的人工智能代理。
(以上内容均由Ai生成)