分析师权衡人工智能用于军事目的的风险
快速阅读: 据《ADF 杂志》称,非洲军队正广泛采用人工智能提升军事效能,但缺乏人类控制的自主武器系统(AWS)、网络安全漏洞及潜在偏见等问题引发担忧。专家呼吁加强人类监管,确保AI在军事中的合法与道德使用,并建议通过演习明确AWS的设计与使用标准。非盟计划通过策略最大化AI益处,最小化风险,推动合作与投资。
非洲军队越来越多地利用人工智能(AI)进行监控、态势感知、情报收集,并提高冲突地区的行动效率。然而,分析人士警告称,这项快速发展的技术伴随着风险,包括缺乏对自主武器系统(AWS)的人类控制、网络安全漏洞,以及AI可能因数据采集而做出有偏见或不准确的决定,比如在无人机目标信息方面。这可能导致意外后果,如对平民的攻击。
无人机在军事行动中的使用已充满风险。尼日利亚的安全情报与风险管理公司“灯塔咨询”记录了尼日利亚军方在过去六七年间发生的18起无人机误击事件,导致400多名平民死亡。“尼日利亚军队承受着巨大的压力,以确保此类事件不再发生,”灯塔咨询管理总监卡比尔·阿达穆在近期非洲战略研究中心(ACSS)的网络研讨会上表示。“军队已经成立了多个单位,以确保遵循国际人道法。”
随着AI技术和AWS的不断进步,一系列数据采集程序和动能操作可能会脱离直接的人类控制。根据军备控制与非扩散中心的说法,完全自主的武器能够在无人类决策的情况下执行任务。据《国防邮报》今年2月的一份报告称,土耳其无人机制造商“拜卡尔”最近测试了一款新型TB2无人机,该无人机配备了先进的AI。新的TB2T-AI包括三个先进的AI计算机,提升了其自主操作能力。AI使其能够识别和追踪目标、识别地形、优化路线,并自动起飞和降落。
正如非盟所指出的那样,AI系统可能尚未完全具备解释其决策过程的能力。此外,还存在关于人权保护的整体问题,以及民用和军事环境中安全和安保问题的担忧。其他风险包括针对AI应用的网络威胁,如无法追溯的人工合成视频、图像和音频文件,即所谓的深度伪造。
ACSS研究员内特·艾伦表示,随着AI变得更加先进,这类风险变得更加复杂。“仅仅采用某种AI系统是不够的;你必须考量其使用的背景,”他在网络研讨会上说。“我认为这对我们的非洲伙伴来说很重要。你必须从操作层面战略性地思考它如何与其他系统集成。”
艾伦和其他分析师表示,人们担心应该由谁来控制这项技术,以及AI系统应多大程度上遵守国际法。根据斯德哥尔摩国际和平研究所(SIPRI)的说法,国际人道法通常被解释为要求AWS的使用者预测并限制武力使用的后果。这些规则虽然不明确,但全球许多国家都同意,AI在冲突中的使用应取决于武器使用的背景。
根据西班牙IE政治、经济与全球事务学院的卡洛斯·巴塔拉斯等分析人士的说法,对AI系统的有人监管对于确保战争中的道德与合法决策至关重要。巴塔拉斯认为,人类操作员不应简单地批准所有AI建议,尤其是在使用AWS时。“专家强调,在军事决策中保留人类判断对于降低人道主义风险、解决伦理问题并推动遵守国际人道法至关重要,”巴塔拉斯为大学的在线出版物撰文写道。“这一原则尤其受到自主武器系统的冲击,这些系统被设计为无需直接人类控制即可运行。”
SIPRI的研究人员建议,军队应通过情景演习来识别国际法禁止的AWS的设计特征和具体用途,并明确人类在开发和使用AWS时的标准与行为要求。这样的演习也可能确定对AWS的限制,包括法律、伦理、政策、安全和操作方面的考虑。
为了利用AI的好处,非盟制定了相关策略,以建立AI能力、最小化风险、刺激投资并促进合作。该策略旨在:
– 利用AI造福非洲人民、机构及私营部门。
– 关注治理、人权、和平与安全等议题,解决与AI使用相关的风险。
– 推动非盟成员国在基础设施、数据集、AI创新与研究方面的能力建设,同时培养AI人才和技能。
– 培育区域和国际合作与伙伴关系,发展国家和区域AI能力。
– 鼓励国家和区域层面的公共及私人对AI领域的投资。
“现在责任在于支持成员国发展本地能力,”阿达穆说。“在这方面,多数成员国仍有很长的路要走。展望未来,我们将看到更多的国际合作。”
(以上内容均由Ai生成)