欧盟发布高风险AI系统严重事故报告指南
快速阅读: 欧盟委员会2025年9月26日发布《欧盟人工智能法案》草案指南,规定高风险AI系统严重事件报告要求,报告时间2至15天不等,公众咨询至11月7日。
2025年9月26日,欧盟委员会(EC)发布了关于《欧盟人工智能法案》下高风险人工智能系统严重事件报告要求的草案指南。对于可能属于该法案高风险AI系统范围内的组织而言,了解这些新的报告义务对于合规规划至关重要。
要点概览:
– 委员会于2025年9月26日发布了严重事件报告模板和指南文件。
– 高风险AI系统的提供者将被要求向国家当局报告“严重事件”。
– 报告时间从2天到15天不等,具体取决于事件的严重程度和类型。
– 公众咨询开放至2025年11月7日。
理解事件报告框架:
《欧盟人工智能法案》第73条规定了涉及高风险AI系统的严重事件的分层报告制度。虽然这些要求直到2026年8月才会生效,但新发布的草案指南提供了宝贵的见解,反映了委员会的期望。
报告框架具有多重目的:创建有害模式的早期预警系统,明确提供者和用户的问责制,促进及时的纠正措施,以及通过透明度增强公众对AI技术的信任。
什么构成“严重事件”?
根据法案第3条第49款,当AI系统事件或故障直接或间接导致以下情况时,即视为严重事件:
– 人员死亡或健康受到严重影响;
– 关键基础设施遭受严重且不可逆的破坏;
– 违反欧盟法律下的基本权利义务;
– 财产或环境受到严重影响。
草案指南特别强调了直接和间接因果关系的重要性。例如,AI系统提供错误的医疗分析,导致患者因后续医生决定而受害,这将被视为间接的严重事件。这意味着组织在风险管理框架中必须考虑下游影响。
与现有报告制度的交叉:
对于管理多个合规框架的客户,指南提供了关于重叠报告义务的澄清。如果高风险AI系统已经根据其他欧盟法律(如NIS2、DORA或CER)具有相当的报告义务,则通常只需在《人工智能法案》下报告基本权利侵犯问题。
这反映了委员会试图最小化重复报告负担的努力,尽管实际实施仍需AI治理、法律和合规团队之间的仔细跨职能协调。
对组织的实际影响:
组织应开始将AI系统映射到高风险标准,并准备内部流程以检测、调查和报告事件。关键考虑因素包括:
– 建立明确的事件响应协议;
– 实施监测系统以检测潜在的严重事件;
– 开发保存证据的调查程序;
– 创建跨职能团队来管理报告义务;
– 更新风险评估以涵盖严重事件场景。
下一步行动:
我鼓励客户参与公开咨询,该咨询将持续至2025年11月7日。委员会特别希望就与其他报告制度的相互作用获得反馈和实例。
组织还应开始审查其AI治理框架,确保能够有效实施这些报告要求,一旦这些要求在2026年8月生效。
(以上内容均由Ai生成)