欧盟出台新规:高风险AI模型须报告重大事故并确保网络安全
快速阅读: 据相关媒体报道,欧盟7月14日发布AI法案指导方针,要求高风险AI模型加强合规,包括评估、风险缓解等。违规将面临最高750万欧元罚款。该法案8月2日起生效,涉及谷歌、OpenAI等模型。
据路透社报道,7月14日,欧盟委员会发布指导方针,帮助被认定具有系统性风险的人工智能模型落实《人工智能法案》的要求。这些模型将面临更严格的合规义务,以降低潜在风险。
此举旨在回应部分企业对《人工智能法案》监管负担的担忧,同时为企业提供更明确的操作指引。根据该法案,违规企业将面临750万欧元(约合6249.6万元人民币)或年营业额1.5%(最高3500万欧元)或全球营业额7%的罚款。
自8月2日起,该法案将适用于具有系统性风险的AI模型及基础模型,包括谷歌、OpenAI、Meta、Anthropic和Mistral开发的模型。各公司须在一年内完成合规。
欧盟委员会将“具有系统性风险的模型”定义为具备高度计算能力,可能对公共健康、安全、基本权利或社会产生重大影响的AI系统。首批受监管的模型需完成模型评估、风险识别与缓解、对抗性测试、重大事件报告,并配备足够的网络安全防护,防止模型被盗或被滥用。
此外,通用型或基础AI模型还需新增透明度义务,包括撰写技术文档、落实版权政策,并详细说明训练数据的来源。
欧盟技术事务主管亨娜·维尔库宁表示:“最新发布的指导方针将有助于《人工智能法案》的顺利实施,确保监管更加清晰有效。”
(以上内容均由AI生成)