权衡人工智能用于军事目的的风险 – 分析
快速阅读: 据《欧亚评论》最新报道,非洲军队 increasingly 使用 AI 提升军事效能,但面临自主武器缺乏人类控制、偏见决策及网络安全等风险。专家呼吁加强人类监督和国际法规遵守,非盟推动 AI 战略以应对挑战,促进合作与发展。
非洲军队越来越多地利用人工智能(AI)进行监控、态势感知、情报收集以及提升冲突地区的行动效率。然而,分析人士指出,这种新兴技术伴随的风险不容忽视,包括缺乏对自主武器系统(AWS)的人类控制、网络安全漏洞以及AI可能基于数据采集做出有偏见或不准确的决定,例如在无人机目标信息方面。这种情况可能导致意外后果,比如对平民的攻击。
军事行动中使用无人机已经充满风险。在尼日利亚,安全情报和风险管理公司“灯塔咨询”记录了尼日利亚军队在过去六七年里发生的18起无人机误击事件,导致超过400名平民死亡。“尼日利亚军队正面临巨大压力,以确保此类事件不再发生,”灯塔咨询管理总监卡比尔·阿达穆在近期非洲战略研究中心(ACSS)举办的网络研讨会上指出,“军队已经成立了多个单位,以确保遵循国际人道法。”
随着AI技术和AWS的不断发展,一系列数据采集程序和动能操作可能会脱离直接的人类控制。根据军备控制与非扩散中心的说法,完全自主的武器能够在无人类决策的情况下执行任务。据《国防邮报》2月份报道,土耳其无人机制造商“拜卡尔”最近测试了一款新型TB2无人机,这款无人机配备了先进的AI。新版本的TB2T-AI包含三个先进的AI计算机,提升了其自主操作的能力。AI使它能够识别和追踪目标、识别地形、优化路线,并自动起飞和降落。
正如非洲联盟所指出的,AI系统可能尚未完全能够解释其决策过程。此外,还存在关于人权保护的整体问题以及民用和军事环境中安全和安保问题的担忧。其他风险还包括针对AI应用的网络威胁,例如无法追溯的人工合成视频、图片和音频文件,即所谓的深度伪造。
ACSS研究员内特·艾伦指出,随着AI变得更加先进,这些类型的风险变得更加棘手。“仅仅采用某种AI系统是不够的;你必须考虑使用它的背景,”他在网络研讨会上说,“我认为这对我们的非洲伙伴来说非常重要。你必须从运营层面战略性地思考它如何与其他系统集成。”
艾伦和其他分析师表示,人们担心谁应该控制这项技术以及AI系统应遵守国际法的程度。根据斯德哥尔摩国际和平研究所(SIPRI)的说法,国际人道法通常被解释为要求AWS的使用者预测并限制武力使用的后果。这些规则虽然未明确表述,但全球许多国家都同意,在冲突中使用AI应取决于武器使用的背景。
根据西班牙IE政治、经济与全球事务学院的卡洛斯·巴塔拉斯等分析师的说法,AI系统的有人监督对于确保战争中的伦理和合法决策至关重要。巴塔拉斯认为,人类操作员不应简单地批准所有AI建议,尤其是在使用AWS时。“专家强调,在军事决策中保留人类判断对于降低人道主义风险、解决伦理问题以及推动遵守国际人道法至关重要,”巴塔拉斯为大学的在线出版物撰文写道,“这一原则尤其受到自主武器系统的挑战,这些系统被设计为无需直接人类控制即可运行。”
SIPRI的研究人员建议,军队应通过情景模拟识别国际法禁止的AWS的设计特征和具体用途,并制定人在开发和使用AWS时的行为标准和要求。这样的演练也可能确定对AWS的限制,包括法律、伦理、政策、安全和操作方面的考虑。
为了利用AI的好处,非盟制定了一个策略,以建立AI能力、降低风险、刺激投资和促进合作。该策略旨在:
– 惠及非洲民众、机构及私营部门。
– 应对与AI使用相关的风险,注意治理、人权、和平与安全等问题。
– 加快非盟成员国在基础设施、数据集、AI创新和研究方面的能力提升,同时培养AI人才和技能。
– 培育区域和国际合作与伙伴关系,以发展国家和地区AI能力。
– 鼓励各国及地区层面的公共和私人对AI领域的投资。
“现在重点在于支持成员国发展本地能力,”阿达穆说,“在这方面,大多数成员国还有很长的路要走。展望未来,我们将会看到更多国际合作。”
(以上内容均由Ai生成)