魁北克金融监管局发布AI使用草案
快速阅读: 2025年7月3日,魁北克金融市场管理局发布金融机构使用AI系统指导方针草案,强调风险管理、治理机制、政策程序和客户利益保护,要求金融机构评估AI系统风险,确保公平对待客户。
2025年7月3日,魁北克金融监管机构——金融市场管理局(AMF)发布了关于金融机构使用人工智能系统(AI系统)的指导方针草案(仅提供法文版本)。该草案明确了AMF对金融机构应采取措施管理AI系统相关风险及确保公平对待客户的期望。本文将概述草案的关键内容及其可能对受AMF监管的金融机构产生的影响。
AMF指出,草案中的期望并非一刀切,其应用将取决于机构的性质、规模、复杂性及风险状况,以及所使用AI系统的风险评级。
草案适用于魁北克授权的保险公司、金融服务合作社、信托公司及其他授权存款机构。对于AI系统及其风险的基本定义与评估,AMF采用经济合作与发展组织的定义,即AI系统是一种基于机器的系统,能够从输入中推断出如何生成预测、内容、建议或决策,从而影响物理或虚拟环境。不同AI系统的自主性和适应性程度各异。
AMF要求金融机构对其使用的每个AI系统进行风险评级,考虑因素包括系统特性与数据质量、系统控制机制、机构暴露度等。鉴于AI技术的快速发展,AMF还要求定期重新评估已分配的风险评级。
具体期望方面,草案将AMF的要求分为生命周期风险管理、治理机制、政策程序和客户利益保护几个类别。在生命周期风险管理中,AMF期望金融机构开发流程和控制措施,以应对AI系统各阶段的风险,包括网络安全、偏见输出、歧视代理、道德偏离和幻觉等问题。例如,在设计或采购阶段前,金融机构需评估使用AI系统是否为解决问题的最佳方案,并充分考虑其风险评级;在采购和设计阶段,优先选择具备高安全性和可解释性的AI系统;在设计阶段及后续运营中,确保AI系统接受高质量且无偏见的数据训练;在评估和内部审计阶段,检查潜在的歧视、偏见、网络安全漏洞、道德偏差和知识产权侵权问题。当缺少评估高风险AI系统所需的信息时,AMF期望金融机构设置合理的使用限制。此外,金融机构还需持续监控AI系统的使用情况,确保数据质量、输出效果和网络安全。
在治理机制方面,AMF提出了相应的期望。
加拿大金融管理局(AMF)要求金融机构建立治理机制,确保人工智能系统的责任明确,并确保所有利益相关者对其职责范围内的人工智能系统有足够的了解,包括其局限性和风险。具体措施包括:
每个AI系统应由直接向负责所有AI系统的高管汇报的个人负责。
所有AI系统的用户都应了解其操作限制及金融机构对其使用的限制。
董事会负责制定管理与AI系统使用相关的风险政策,保持对AI系统的充分了解,并定期评估这些系统。
AMF期望金融机构根据其活动性质、规模、复杂度以及AI系统风险等级,制定相应的政策、流程和程序。这些政策必须包括:
维护一个集中登记册,提供每个正在使用的AI系统的完整情况及其决策所需的所有信息。
定期评估与AI系统相关的风险,并相应地向管理者、用户、AI系统验证团队和高级管理层更新这些风险。
为了确保AI系统不会不公平地影响客户,AMF要求金融机构确保:
其道德守则对AI系统的使用保持高标准。
记录、纠正并向高级管理层报告AI系统中出现的歧视因素。
迅速记录、纠正并向高级管理层报告客户影响系统中的歧视和偏见,同时建立监控机制。
特别关注用于客户影响结果的次级数据源的质量。
采取措施确保个人信息的准确性和时效性。
在使用客户的个人数据时获得知情同意。
当客户与AI系统(如聊天机器人)互动时,告知客户并确保客户可以随时请求人工服务。
如果决策是由AI系统或人类基于AI系统收集的信息做出的,应根据客户要求提供清晰简明的解释。
为应对草案指南的最终确定,金融机构应考虑以下步骤:
清点当前使用的AI系统,进行评估并分配风险等级。
对于正处于设计或采购阶段的AI系统,评估其使用是否合理,是否有更适合的替代方案。
审查现有治理机制,必要时进行更新,以确保AI系统使用的责任明确,并遵守公平对待客户的原则。
(以上内容均由Ai生成)