AI 威胁动摇国家安全:专家在危机情境中犹豫不决或鲁莽行事
快速阅读: 据《AZoAI》最新报道,研究发现,人工智能在危机决策中引发犹豫或冲动。弗吉尼亚联邦大学的克里斯托弗·怀特博士通过模拟实验发现,面对全AI威胁时,安保人员更犹豫;而视AI为取代者的人员则表现冲动。这项研究强调了正确理解AI对决策影响的重要性。
弗吉尼亚联邦大学
2025年3月20日
人工智能如何影响高风险危机中的决策?
一项针对700名安保专业人士的研究发现,由人工智能驱动的威胁会引发犹豫和怀疑——但那些担心完全被人工智能取代的人却表现得过于冲动。随着人工智能重新定义安全应对方式,我们如何避免关键误判?
**研究:**
《人工智能与“伟大机器”问题:在国土安全和应急管理中避免技术过度简化》
**图片来源:Mopic / Shutterstock**
人工智能无处不在——在谷歌搜索、在线购物推荐和电影流媒体推荐中。但在危机时刻,它又是如何影响我们的决策呢?弗吉尼亚联邦大学研究员克里斯托弗·怀特博士研究了应急管理与国家安全专业人士在模拟人工智能攻击下的反应。结果显示,当面对完全由人工智能驱动的威胁时,专业人士比面对人类黑客或仅受人工智能辅助的黑客时更为犹豫且对自己的能力产生怀疑。
“这些结果表明,人工智能促使参与者变得更加犹豫和谨慎方面起到了重要作用,”怀特说道。怀特是弗吉尼亚联邦大学L.道格拉斯·怀尔德政府与公共事务学院的副教授,他最关心的是这些非常有限的情况。国家安全组织设计其培训计划以减少不确定性中的犹豫。
尽管研究中的近700名美欧专业人士中大多数人认为人工智能能够提升人类能力,但有一小部分人认为人工智能最终可能取代他们的职业及一般的人类专业知识。这一群体对基于人工智能的威胁反应鲁莽,接受风险并草率行动。
“这些人认为他们所做的所有工作——包括他们的职业使命和所支持的机构使命——可能被人工智能取代,”怀特指出。
**人工智能:下一个“伟大机器”**
怀特提出了一个理论来解释为何会出现这种情况。被否定的“伟人”理论认为,强大的政治人物主要塑造了历史进程,而现代历史学家则给予大众运动更多认可。怀特认为,历史同样受变革性技术发明的影响,如电报或无线电波,以及对其力量的盲目信任——他将其称为“伟大机器”理论。
但与“伟人”理论不同,怀特表示,“伟大机器”是一种社会共有的力量,既能造福社会,也可能带来危害。例如,怀特指出,“在20世纪30年代中期,我们知道无线电波在很多方面具有巨大潜力。”但他提到,早期的一种设想是“死亡射线”——你可以烧坏你的大脑等等。“死亡射线”的概念引发了关注,激发了科幻故事创作,并在第一次世界大战及战间期出现了真实尝试。直到二战前数年,科学家们才开始利用无线电波制造出一些实用设备:雷达。
怀特指出,社会当前面临类似人工智能的问题,他将其称为一种“通用型”技术,可能既有助于也可能危害社会。这项技术已极大改变了部分人对世界的认知及其自身定位。他说:“它做了这么多不同的事情,你确实会有这种新兴的替代心态领域。即未来世界将截然不同,我的位置将不复存在,因为它将从根本上改变一切。”
这种思维模式可能给国家安全专业人士带来问题,因为新技术颠覆了他们对自己能力的看法,并改变了他们对紧急情况的反应。“这是一种心理状态,在这种状态下,我们不得不放弃已知的对抗偏见或不确定性的规则手册,”怀特说。
**对抗“终结者”级威胁**
为研究人工智能如何影响专业人士的决策能力,怀特招募了近700名来自美国、德国、英国和斯洛文尼亚的应急管理与国土安全专业人士参加一个模拟游戏。随后他们被分配至三种情景之一:控制场景,威胁只涉及人类黑客;轻度的“战术”人工智能参与场景,人工智能辅助黑客;以及重度人工智能参与场景,参与者被告知“战略”人工智能程序策划了威胁。
当面对基于战略人工智能的威胁——怀特将其称为“终结者”级威胁,参考《终结者》电影系列时,专业人士往往质疑自己的训练并犹豫不决。他们更可能向同事寻求更多情报信息,而其他两组的同事通常根据训练做出反应。
相比之下,那些视人工智能为终将取代自身的“伟大机器”的参与者采取了不受约束的行动,并做出了与训练相矛盾的决定。尽管经验与教育在一定程度上缓和了专业人士对人工智能辅助攻击的反应,但它们并未影响他们对“终结者”级威胁的反应。
怀特说,这可能是一个威胁,因为人工智能攻击变得越来越普遍。“人们对人工智能是关于增强还是取代他们有不同的看法,”怀特指出,“而这显著地改变了人们在危机中的反应方式。”
**来源:**
弗吉尼亚联邦大学
**期刊引用:**
怀特,克里斯托弗。《人工智能与“伟大机器”问题:在国土安全和应急管理中避免技术过度简化》
《国土安全与应急管理杂志》,2025年。
DOI:10.1515/jhsem-2024-0030
(以上内容均由Ai生成)