美军高官依赖ChatGPT做决策,引发安全担忧
快速阅读: 美国陆军少将泰勒透露,利用AI工具如ChatGPT辅助关键决策,通过“OODA循环”理论提升战场优势。美国空军部长亦强调AI对未来战争的重要性,但有专家警告AI可能带来安全风险。
美国陆军的一位高级官员透露,他在做出关键领导决策时会利用人工智能聊天机器人。在与《商业内幕》的访谈中,威廉·汉克·泰勒少将详细说明了他对类似ChatGPT这样的AI工具的依赖程度,这些工具帮助他在关键时刻做出能够影响数千士兵的决策。泰勒将军表示:“作为指挥官,我希望能够做出更好的决策,确保在正确的时间做出决策,以获得优势。”
泰勒提到,“Chat和我”最近变得非常亲密。根据《商业内幕》的报道,这位少将并不是像学生那样为了逃避家庭作业而使用ChatGPT。相反,他通过与聊天机器人的对话来发展洞察力,这些洞察力融入了一种称为“OODA循环”的理论中。支持OODA(观察、定位、决策和行动)循环理论的人旨在能够在敌人之前果断行动,从而在战场上获得优势。
军事指挥官们认为,像人工智能这样的工具对于加深对敌方力量的理解至关重要,这将有助于他们在战斗情景中快速做出更好的决策。泰勒少将并非孤军奋战,在尝试将AI作为战争工具方面,美国空军部长最近也表示,AI是决定未来战场胜负的关键因素,并补充说:“我们将生活在一个决策不再由人类速度决定,而是由机器速度决定的世界。”
然而,也有人对将如此多的责任交给AI提出了严重警告。世界数字治理组织的联合创始人在接受《新闻周刊》采访时指出,“更复杂的问题”可能会将机密信息置于聊天机器人的掌握之中。他建议,在信任聊天机器人处理可能危及国家安全的信息之前,我们需要更好地了解数据存储的位置以及由谁保管,并补充说:“为了让这些模型有效并给出有意义的回应,它们需要大量的背景信息。”
(以上内容均由Ai生成)