了解 AI 法案及其合规性挑战
快速阅读: 《帮助网络安全》消息,在《网络帮助安全》的采访中,大卫·杜蒙特讨论了欧盟人工智能法案的影响,建议组织利用现有GDPR框架应对新合规义务。尽管GDPR和人工智能法案有协同效应,企业仍需关注国家层面执法差异和第三方供应商风险。透明度和供应商尽职调查是关键挑战。企业应更新供应商审查流程,确保合规。
在《网络帮助安全》的采访中,汉顿·安德鲁斯·柯思律师事务所的合伙人大卫·杜蒙特讨论了欧盟人工智能法案的影响,以及组织如何利用现有的《通用数据保护条例》(GDPR)框架来应对新的合规义务,如符合性评估和透明度要求。杜蒙特还概述了如何应对国家层面执法差异和第三方人工智能供应商带来的风险。人工智能法案的影响常被比作GDPR。是否存在企业尚未理解的根本合规挑战?在为公司内部法律顾问制定欧盟人工智能法案指南时,我们发现许多领域可以让组织利用其当前的GDPR经验和合规努力来实现欧盟人工智能法案的合规。与GDPR类似,人工智能法案也设定了问责制、数据质量和管理、治理、供应商尽职调查、培训、风险评估及透明度义务,涵盖人工智能系统的开发与使用。那些已建立全面GDPR合规计划的组织将能够在其现有政策、程序、通知和其他合规基础设施的基础上,解决其在这些领域的欧盟人工智能法案义务。尽管GDPR和人工智能法案的合规存在显著协同效应,但组织仍需从零开始构建人工智能法案合规计划的一些关键要素。对于高风险人工智能系统提供商来说,例如,有符合性评估义务与GDPR没有重叠,因此可能是企业完全未知的新内容。
鉴于人工智能法案不规范人工智能滥用可能引起的刑事责任,企业应如何准备应对不同国家层面的执法?人工智能法案为国家监管机构引入了执法权力,包括可以施加重大行政罚款的权力,并且这些权力在欧盟层面进行了协调。然而,该法案也允许欧盟成员国在其国家法律中建立执法规则。这些国家执法规则可能包括对人工智能滥用的刑事责任。组织必须密切关注计划引入或使用人工智能系统的欧盟成员国的法律发展,以确保他们了解任何可能影响其责任和风险暴露的地方偏差。理想情况下,应尽量减少创建额外地方执法规则,因为这些国家规则可能导致欧盟人工智能法律框架的碎片化,从而导致法律不确定性并阻碍创新。
由于人工智能法案仍在演变,你预计哪些方面需要监管部门或行业机构进一步澄清?根据第96条,欧洲委员会需制定并发布若干指南,以协助组织遵守新规则。事实上,欧洲委员会最近发布了关于人工智能法案下人工智能定义和禁止的人工智能实践的第一批指南,并于2月2日生效。更多指南正在筹备中,包括对高风险人工智能系统的分类和要求、透明度要求、实质性修改的概念以及人工智能法案与现行欧盟产品安全立法之间的相互作用。除了指南外,行为守则和标准在人工智能法案的实际实施中可能会发挥重要作用。例如,欧盟人工智能办公室正在进行的一般用途人工智能模型行为守则工作,可能对一般用途人工智能模型规则的实际解释和应用产生重大影响。
人工智能法案要求透明度,特别是对于高风险人工智能系统。然而,企业在满足这些要求的同时保护商业秘密和知识产权时面临哪些实际挑战?人工智能法案对某些人工智能系统提供商施加的透明度义务与其权利和商业利益之间存在明显冲突。欧盟立法者明确承认这一矛盾,因为人工智能法案的多个条款指出,透明度义务不影响知识产权。例如,根据第53条,提供通用人工智能模型的供应商必须向希望下游集成该模型的组织提供特定信息,强调需尊重并保护知识产权和商业秘密。实际上,所有各方都需要做出善意的努力,找到确保安全、可靠和可信人工智能所需的透明度与保护投资大量资源进行人工智能开发的供应商利益之间的适当平衡。监管机构必须务实并与人工智能供应商合作找到适当的平衡。
许多公司依赖第三方人工智能供应商。在第三方人工智能系统在组织内部推广前,内部律师进行适当的尽职调查至关重要。内部律师在第三方人工智能系统在组织内部推广前进行适当的尽职调查非常重要。人工智能法案对人工智能系统供应商施加了许多义务,这有助于内部律师进行这项尽职调查。根据人工智能法案第13条,高风险人工智能系统的供应商必须向(业务)部署者提供足够的信息,以便他们理解高风险人工智能系统的操作并解释其输出。此外,供应商需起草关于高风险人工智能系统的详细技术说明。这些说明可以作为内部律师确定应采取的适当内部措施的宝贵工具,以管理与使用相关人工智能系统相关的风险。组织应考虑根据人工智能法案更新现有的供应商审查流程。例如,供应商问卷是一个有价值的工具,在谈判早期阶段从供应商那里获得信息,以了解其在人工智能合规方面的成熟度。此外,通过这些问卷,部署人工智能系统的组织可以请求所需的目标信息,以履行其在人工智能法案下的自身义务,如进行基本权利影响评估和/或数据保护影响评估(视情况而定)。
(以上内容均由Ai生成)