具有系统性风险的 AI 模型为如何遵守欧盟 AI 规则提供了指导
快速阅读: 《保险日记》消息,欧盟发布AI监管指南,要求高风险AI模型在2025年8月前合规,包括谷歌、OpenAI等公司。需进行风险评估、透明度披露等,以降低潜在威胁。(98字)
据路透社报道,7月21日,布鲁塞尔,欧盟委员会发布了一套指导方针,旨在帮助识别具有系统性风险的人工智能模型,并确保这些模型遵守更严格的规定,以减少潜在威胁。此举措是为了回应部分公司对AI法案及监管压力的批评,同时为面临高额罚款的企业提供明确指导。
根据指导方针,从8月2日起,AI法案将适用于所有具有系统性风险的AI模型及基础模型,包括谷歌、OpenAI、Meta Platforms、Anthropic和Mistral等公司开发的模型。企业需在明年8月2日前完成合规工作。
欧盟委员会定义,具有系统性风险的AI模型是指那些拥有极高计算能力,可能对公共健康、安全、基本权利或社会产生重大影响的模型。这类模型需要进行风险评估与缓解、对抗性测试、向委员会报告严重事件,并确保信息安全,防止被滥用。
对于通用人工智能(GPAI)或基础模型,则需满足透明度要求,包括编写技术文档、制定版权政策,并公开算法训练内容的详细摘要。
欧盟科技负责人亨娜·维里库宁表示:“通过今天的指导方针,委员会支持AI法案的有效实施。”
(1欧元=0.8597美元)
(以上内容均由Ai生成)