欧盟与澳大利亚AI监管差异对比
快速阅读: 欧盟与澳大利亚分别采取不同策略监管AI,欧盟通过AI法案对AI系统进行风险分类管理,澳大利亚则提出10项保护措施,强调AI生命周期中的透明度、人类监督及责任。
在快速发展的科技行业领域,人工智能(AI)处于创新的最前沿。尽管科技行业的利益相关者自然地成为AI的领导者,并且比其他行业的公司更多地采用AI技术,
但他们面临着日益复杂的国际监管环境。
AI在科技行业的应用场景——德国和澳大利亚的例子
应用场景多样,从客户服务聊天机器人到太空技术不一而足。DLA Piper就多种AI开发、实施和运营场景提供了法律咨询,这些场景符合相关法律框架条件,特别是在移动出行、支付、保险、汽车、机器人技术和太空技术行业。由于实际案例往往不仅涉及AI特定的法规,还涉及特定行业的法规(例如金融服务和保险),真正提升客户业务的法律建议通常还需要跨领域和跨国的专业知识,而这正是DLA Piper在全球范围内能够提供的。作为关键技术,AI驱动的解决方案也可能触发关键基础设施法规的具体要求,例如基于欧盟关于网络信息安全的法律规定(如NIS、DORA等)或国家立法,如德国的信息安全法(“IT-Sicherheitsgesetz”)、一般法律(如软件、版权和个人权利)以及保密、专有技术和商业秘密等方面的规定。
欧盟的AI监管——具有里程碑意义的AI法案
欧盟在全球AI监管方面采取了大胆的领导角色。欧盟AI监管的核心是所谓的AI法案(条例(EU)2024/1689,制定统一的人工智能规则),该法案于2024年8月1日生效。AI法案采取基于风险的方法,将AI系统划分为四个风险类别(禁止的AI实践、高风险AI系统、有限风险AI系统、最小或无风险AI系统),每个类别都受其各自规则的管辖。
一个关键术语是“AI系统”的定义。根据AI法案,AI系统是指“一种设计用于以不同自主程度运行的机器系统,可能在部署后表现出适应性,并且为了明确或隐含的目标,从接收的输入推断如何生成输出,如预测、内容、推荐或决策,这些输出可以影响物理或虚拟环境”。这一定义与经合组织的指南相一致,强调了系统生成影响物理或虚拟环境的输出(如预测、推荐或决策)的能力。
根据AI法案下特定AI分类的不同要求和义务适用。高风险AI系统受到广泛的监管要求,包括数据和数据治理、记录保存和人工监督等方面的要求,其提供者和部署者必须履行各种相应的义务,具体取决于他们的角色。有限风险AI系统可能需要遵守透明度义务,而最小或无风险的AI系统甚至可能不受任何要求的约束。被认定为不可接受风险的AI实践,如使用故意操纵或欺骗技术的AI系统,将被禁止。
所谓的“通用AI模型”(GPAI模型)可能有自己的义务集,如特定的文档和信息义务。GPAI模型被定义为“展示显著通用性并能胜任广泛独立任务的AI模型,无论其市场定位如何,都可以集成到各种下游系统或应用程序中”。
根据特定GPAI模型是否属于具有系统性风险的GPAI模型,需履行的义务和采取的措施可能有所不同。
违反AI法案可能导致罚款,对于某些AI实践的禁止规定未遵守或未充分遵守的情况,最高可处以3500万欧元或全球年度营业额的7%,以较高者为准。对于未遵守或未充分遵守透明度或文档义务的情况,可能面临最高1500万欧元或3%的营业额罚款。向国家主管机关提供不正确、不完整或误导性的信息,可能被处以最高750万欧元或1%的营业额罚款。欧盟成员国可通过国家立法实施额外的制裁。
澳大利亚的AI监管——试探性和分阶段的方法
与欧盟不同,澳大利亚联邦政府在监管人工智能方面采取了更为审慎和分阶段的方法。尽管目前尚无具体的法律约束,但朝向未来监管框架的势头正在逐步增强,该框架反映了全球趋势,并承认人工智能技术的跨国性质。即使在没有正式立法的情况下,新兴标准已经开始影响组织的行为,尤其是在采购、治理和风险评估领域。结论显而易见:提前准备,否则可能在快速变化的监管环境中落后。
2024年9月,澳大利亚政府发布了一份提案文件,提出了针对高风险人工智能应用的10项强制性保护措施。这些保护措施强调在整个AI生命周期中的人类监督(第5条)、透明度和可解释性(第6条)、测试和监控(第4条)、数据治理(第3条)以及责任(第1条)。其目的是确保AI系统不会侵犯人权、造成身体或心理伤害,或导致重大法律和社会影响。此外,还引入了自愿性AI安全标准,为各组织提供负责任地开发和部署AI系统的指南,适用于任何风险级别的AI系统。
全球专业知识的需求
虽然欧盟和澳大利亚(以及其他许多司法管辖区)在监管方法上存在分歧,但许多原则正在趋同,无论在哪一司法管辖区,合规都是必要的。特别是对于跨国运营的公司来说,不应低估AI带来的挑战。总体而言,AI治理不仅是一项合规义务,更是战略成功的关键。对于科技公司而言,理解区域差异并确保合规是实现全球运营成功的基础。
欲了解更多技术领域的见解,请参阅我们的《AI治理报告》。
[1] 有关更多见解,请参阅我们的《AI治理报告》。
[2] 《AI法》第3条第1款。
[3] 参见经合组织更新版AI系统定义的解释备忘录,第6页,可访问https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/03/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_3c815e51/623da898-en.pdf(最后访问日期:2025年6月3日)。
[4] 《AI法》第3条第63款。
[5] 参见《AI法》第53条、第55条。
[查看来源]
(以上内容均由Ai生成)