美军上将称正利用AI提升决策能力
快速阅读: 陆军推出基于Ask Sage平台的企业大模型工作区,简化文本任务,但对“后方办公室”工作,生成式AI经济性存疑。陆军CIO指出,AI解决简单问题成本过高,建议评估替代方案。2023年,美国国务院发布军事AI伦理指南,强调人类控制关键决策。军方探索战场AI应用,OpenAI调整政策允许军事使用,但仍禁开发武器。
5月,陆军推出了基于商业Ask Sage平台构建的陆军企业大模型工作区,以简化诸如新闻稿和人员描述等基于文本的任务。然而,对于其他所谓的“后方办公室”军事工作,初步测试显示,生成式人工智能可能并不是最经济有效的选择。
“我们经常发现有人使用这项技术来解决一些本可以通过电子表格中的简单数学问题解决的事情,而为此我们却支付了更多的费用。”陆军首席信息官莱昂内尔·加西亚8月在接受DefenseScoop采访时说,“这是否值得?或者是否有其他方法可以解决问题,虽然从技术角度看可能不太酷,但从执行角度看却更为可行?”
2023年,美国国务院列出了军事使用人工智能的最佳实践,重点是伦理和负责任地在人类指挥链中部署人工智能工具。报告强调,人类应控制“涉及核武器使用的决策”,并具备“停用或关闭表现出意外行为的系统的能力”。
自那时起,军方对在战场上使用人工智能技术表现出兴趣,范围从无人机上的自动瞄准系统到通过与军事承包商Anduril合作利用OpenAI提高态势感知能力。2024年1月,OpenAI从ChatGPT的使用政策中移除了对“军事和战争用途”的禁令,但仍禁止客户通过大模型“开发或使用武器”。
(以上内容均由Ai生成)