弗吉尼亚州立法机构通过《全面人工智能法案》
快速阅读: 据《JD Supra》称,2025年2月20日,弗吉尼亚州通过了《高风险人工智能开发者和部署者法案》,旨在防止算法歧视。该法案规定,开发者需采取措施避免歧视,并向部署者提供AI系统相关资料。部署者需完成人工智能影响评估,并向消费者披露AI系统的用途和重大决定。该法案于2026年7月1日生效。
2025年2月20日,弗吉尼亚州立法机构通过了《高风险人工智能开发者和部署者法案》(弗吉尼亚AI法案),这是一项旨在防止算法歧视的全面人工智能法案。我们在本法律更新中探讨了弗吉尼亚AI法案的核心原则。2025年2月20日,弗吉尼亚州立法机构通过了《高风险人工智能开发者和部署者法案》(弗吉尼亚AI法案),这是一项旨在防止算法歧视的全面人工智能法案。如果格伦·杨金州长签署该法案,弗吉尼亚将成为继科罗拉多之后第二个制定全面州级AI法律的州。以下是关于弗吉尼亚AI法案的关键点。2025年2月20日,弗吉尼亚州立法机构通过了《高风险人工智能开发者和部署者法案》(弗吉尼亚AI法案),这是一项旨在防止算法歧视的全面人工智能法案。我们在本法律更新中探讨了弗吉尼亚AI法案的核心原则。
该法案适用于谁?弗吉尼亚AI法案适用于在弗吉尼亚州开展业务的AI系统开发者和部署者。部署者是指部署或使用高风险AI系统并作出重大决策的个人,而开发者是指开发或实质性修改高风险AI系统的个人,这些系统被提供、出售、租赁、赠予或以其他方式提供给部署者或弗吉尼亚居民。与科罗拉多的《人工智能反歧视法》(科罗拉多AI法案)不同,弗吉尼亚AI法案旨在保护仅在个人或家庭背景下(称为消费者)行动的弗吉尼亚居民。因此,在这方面,弗吉尼亚AI法案的适用范围比科罗拉多AI法案更窄。值得注意的是,在评估一个实体是否为开发者时,公司应注意到,如果他们对AI系统进行了任何故意更改,导致新的算法歧视风险,或者集成了通用AI模型(例如基础模型),他们可能会受到该法律的约束。
该法案监管什么?弗吉尼亚AI法案监管高风险AI系统。AI系统被定义为“任何基于机器学习的系统,无论其目标是明确还是隐含的,从该系统接收到的输入中推断出如何生成输出,包括内容、决策、预测和建议,这些可以影响物理或虚拟环境。”要被视为高风险,AI系统必须特别旨在自主做出或成为做出重大决策的重要因素。重大决策意味着AI系统做出了“对向任何消费者提供或拒绝提供(i)假释、缓刑、赦免或其他从监禁或法院监督中释放;(ii)教育入学或教育机会;(iii)就业机会;(iv)金融服务或贷款服务;(v)医疗保健服务的访问;(vi)住房;(vii)保险;(viii)婚姻状况;或(ix)法律服务”的具有实质性法律意义或类似重要性的决定。”
弗吉尼亚AI法案对于AI系统在做出重大决策中作为“重要因素”的标准比科罗拉多AI法案更严格。弗吉尼亚AI法案要求输出必须是决策的“主要依据”,而科罗拉多AI法案只需要输出“辅助”做出重大决策即可触发高风险义务。根据这一标准,如果公司应用了重要的人类监督,并考虑了除AI输出之外的其他因素,他们可能能够避免触发弗吉尼亚AI法案。弗吉尼亚AI法案增加了两个在科罗拉多AI法案中未包含的新类别高风险决策,即上述(i)和(viii)。然而,与科罗拉多AI法案不同,弗吉尼亚AI法案不包括在其范围内涉及基本政府服务的AI系统。
该法律何时生效?如果签署成为法律,弗吉尼亚AI法案将于2026年7月1日生效,这比科罗拉多AI法案的有效日期晚五个月。这给了公司大约16个月的时间来遵守。
开发者和部署者需要做些什么来遵守弗吉尼亚AI法案?与科罗拉多AI法案一样,弗吉尼亚AI法案下的义务是根据各方角色划分的。下表提供了弗吉尼亚AI法案下开发者和部署者的义务概述。
开发者义务:
– 避免算法歧视:开发者和部署者必须采取合理措施,以保护消费者免受因预期用途和合同用途而导致的任何已知或可预见的算法歧视风险。如果开发者和部署者遵守弗吉尼亚AI法案的要求,则存在推翻这一义务的假设。
– 向部署者提供有关AI系统的相关信息:开发者必须提供有关AI系统的资料和文件,包括:关于预期用途的声明、限制和风险、目的和预期效益、如何进行性能评估、采取的风险缓解措施、使用说明及其监控方式、预期输出以及其他帮助部署者理解输出、监控性能和完成AI影响评估的信息。
部署者义务:
– 完成人工作影响评估:部署者必须完成并保留三年的人工智能影响评估,其中包括关于目的、预期用途、部署环境、利弊以及采取的风险缓解措施的声明;预期用途是否与部署后的实际用途一致或有所不同;对系统输入数据类别和输出数据类别的描述;部署者用于定制人工智能系统的数据类别的概述;用于评估性能和已知局限性的指标;透明度措施的说明;任何部署后监控和安全保障措施的描述;对人工智能系统有效性和可靠性的分析及描述,以及评估性能和已知局限性的指标。
– 可选择遵守人工智能风险管理框架:开发人员可以选择遵守国家标准与技术研究院(NIST)的人工智能风险管理框架(NIST AI RMF)、国际标准化组织(ISO)的ISO/IEC 42001或其他认可的人工智能风险管理框架,以符合弗吉尼亚人工智能法案的相关要求。部署者必须设计并实施合理的人工智能风险管理政策,例如NIST AI RMF、ISO/IEC 42001或其他等效且不低于弗吉尼亚人工智能法案要求的公认的人工智能风险管理框架。
透明度:如果人工智能系统生成或显著修改合成内容(即信息,如图像、视频、音频片段以及在可行的情况下文本,这些内容已被算法显著修改或由人工智能生成),开发人员必须确保输出能够在消费者使用行业标准工具或开发者提供的工具时被识别和检测,并尽可能地使合成内容符合无障碍标准,在生成输出时应用此类标识。
透明度和不利决定:在使用人工智能系统与消费者互动之前,部署者必须向消费者披露人工智能系统的用途和性质、重大决定、部署者的联系方式以及人工智能系统的简明描述。如果部署者使用人工智能系统,则必须及时向消费者传达重大决定。如果决定对消费者不利,并基于消费者直接提供给部署者的个人信息之外的个人数据,部署者必须向消费者提供一份披露决定原因和其他详情的声明,提供纠正消费者个人信息中任何不准确之处的机会,并告知消费者有权对该决定提出上诉。部署者还需以清晰且易于获取的方式提供一份声明,概述其如何管理任何可能预见的算法歧视风险。
(以上内容均由Ai生成)