iller
快速阅读: 据《商业内幕》最新报道,军事领导人认为人工智能在未来的战争中扮演重要角色,但其道德应用备受关注。近期,科技公司与国防部的合作态度转变,引发关于利益冲突的担忧。谷歌等公司开始参与AI武器项目,推动了这一领域的进展。然而,确保AI系统的可控性和透明度是关键,以避免失控或滥用。例如,IBM的乔纳森·阿达谢克强调,必须在道德框架内开发和使用AI技术。
军事领导人认为人工智能在未来的战争中扮演着重要角色。工业界与国防部在人工智能和自主性方面的合作发生了转变。斯诺点风投公司的道格·菲利蓬表示,军事技术中的人工智能必须遵守道德框架。没有人想要“杀人机器人”,因此确保人工智能系统不会失控是军事技术“做生意”的成本。一位风险投资公司的创始人在周三关于战场人工智能技术的讨论中说。“你必须能够制造出能在道德框架内工作的AI。”斯诺点风投公司的联合创始人道格·菲利蓬在里根研究所国家安全创新基地峰会上说。“我不认为有人真的想制造自行四处乱窜的杀人机器人。”
根据IBM的乔纳森·阿达谢克的说法,为什么“部署人工智能”成为每个人关注的焦点。菲利蓬解释说,值得投资的军事技术公司必须已经“思考过这些问题,并在道德环境中工作”。他说这些不是对发展的限制,而是要求。自主机器往往会引起一定程度的担忧,尤其是在这种技术应用于国防部的“杀伤链”时。尽管军事领导人认为这些系统对未来战争至关重要,但也引发了关于机器自主性最终意味着什么的伦理问题。
时代在变,国防技术领域似乎正在经历一个巨大的视角转变。上个月,谷歌改变了之前不开发AI武器的承诺,这一举动招致了一些员工的批评。此举似乎反映了更多科技公司愿意与国防部合作的态度。在硅谷,“从‘我们绝不会考虑保卫美国’到‘让我们加入战斗’的巨大文化转变已经发生。”旧金山的人工智能解决方案公司Domino Data Lab的首席运营官托马斯·罗宾逊说。他在周三的活动上表示:“即便是在几年前也有一种明显的不同。”
小型、更灵活的国防技术公司如安德鲁尔等正在进入无人系统和自主性等领域,一些国防技术领导者认为,新的特朗普政府可能会创造新的国防部合同机会,价值可能达到数亿甚至数十亿美元。这种文化转变的一部分引发了围绕“旋转门”的担忧,即退役的军事官员前往风险投资和技术领域,可能会产生利益冲突。
前空军部长弗兰克·肯德尔强调了人工智能的重要性,在他的任期内,他乘坐了由人工智能驾驶的X-62维斯塔飞机。美国空军照片,摄影师:理查德·冈萨雷斯。近年来,美国军方领导人越来越重视发展人工智能能力,一些人认为,哪个方面主导这一技术领域将成为未来冲突的赢家。去年,当时的空军部长弗兰克·肯德尔表示,美国与中国正在进行一场技术军备竞赛。他说,人工智能至关重要,而中国正在积极向前推进。空军一直在试验由人工智能驾驶的战斗机和其他由人工智能赋能的工具,其他美军部门和美国盟友也是如此。“我们将生活在一个决策不再以人类速度进行的世界,”肯德尔在一月份说。“它们将以机器的速度进行。”
包括网络战和电子战在内的某些武装冲突领域很可能会被评估事件以难以想象的速度和难以想象的小尺度发生的AI技术所主导。这使得AI成为一个重要的投资方向。在周三的讨论中,来自加利福尼亚州的美国国会议员罗·卡纳表达了对2020年民主党总统候选人迈克尔·布隆伯格提议的支持,该提议呼吁将庞大的五角大楼预算的15%转向先进和新兴技术。作为国防部长提名人的皮特·赫格塞思承诺优先考虑新技术,他表示“国防部预算必须专注于战斗力和创新。”他说“技术正在改变战场。”
但伦理考量仍然是关键。去年,高级五角大楼官员讨论了设置“护栏”来平息人们对其“在地下室建造杀人机器人”的恐惧。菲利蓬指出,理解AI工具算法的工作原理对于道德战场实施非常重要,同样重要的是理解吸收的数据质量——否则就是“垃圾进,垃圾出”。“无论是泰森鸡肉公司还是海军部,你都希望可以说‘这个问题很重要’,”他解释道。“输入的数据是什么?”
“你了解它如何通过算法流动,然后你理解输出的方式是可以审计的,这样你就可以理解我们是如何到达那里的,”他说。“然后你把这些规则制定成规范。”菲利蓬表示,一些AI公司的专有知识的不透明性是“胡说八道”和一种“黑箱技术”方法。他认为公司应该追求更加透明的人工智能方法。“我称之为玻璃盒,”他说。理解系统的内部运作可以帮助避免黑客攻击,他说,“这对伦理角度看,理解组织决策过程非常重要。”“如果你不能审计它,”他说,“那就会使你易受攻击。”
(以上内容均由Ai生成)