Lone Star AI:德克萨斯州如何引领特朗普总统的科技议程
快速阅读: 据《JD Supra》最新报道,2025年6月,德克萨斯州签署《负责任人工智能治理法案》(TRAIGA),于2026年生效,旨在安全发展AI技术。该法案要求披露AI互动、禁止行为操控系统,并设立监管沙盒鼓励创新。
2025年6月22日,德克萨斯州州长格雷格·阿博特将《德克萨斯州负责任人工智能治理法案》(TRAIGA)或称《该法案》签署成为法律。该法案将于2026年1月1日生效,旨在“在保护公共安全、个人权利和隐私的同时,鼓励德克萨斯州人工智能技术的安全发展。”该法案此前被称为HB 149,要求政府机构通过通俗易懂的语言、清晰明显的措辞要求等,向消费者披露他们正在与人工智能进行互动——无论这种互动是否明显。同样,当提供医疗服务或治疗时,该披露要求也适用于医疗服务或治疗的提供者,或者在紧急情况下,尽快披露。该法案进一步禁止开发或部署用于行为操控的人工智能系统,包括那些用于促使人们伤害自己、伤害他人或从事犯罪活动的人工智能(参见我们同事关于犹他州对心理健康聊天机器人的监管的文章)。TRAIGA在某些条件下禁止政府使用和部署人工智能来根据社会行为或个人特征评估自然人(社会评分);以及在某些条件下,政府开发/部署用于通过生物识别数据唯一识别个人的人工智能系统。值得注意的是,该法律广泛禁止由“个人”开发或部署人工智能系统,其唯一目的是生产或分发儿童色情内容、非法深度伪造视频或图像、某些性相关内容等;以违反州或联邦法律的方式非法歧视受保护群体;以及侵犯宪法权利。该法案进一步禁止开发或部署用于行为操控的人工智能系统,包括那些用于促使人们伤害自己、伤害他人或从事犯罪活动的人工智能(参见我们同事关于犹他州对心理健康聊天机器人的监管的文章)。这种广泛的覆盖范围必然涵盖在公共和私营部门中使用人工智能工具或系统的雇主和其他组织。
TRAIGA的立法历史
TRAIGA的原始草案(原法案)于2024年12月由州众议员乔瓦尼·卡普里格利奥引入,原本计划成为全国最全面的人工智能立法。原法案以科罗拉多州人工智能法案和欧盟人工智能法案为蓝本,重点在于“高风险”人工智能系统(参见我们同事关于科罗拉多州历史性法律的博客文章)。德克萨斯州本来会对人工智能系统的开发者和部署者施加重大要求,包括保护消费者免受可预见的危害、进行影响评估,并向消费者披露高风险人工智能的细节。鉴于反馈意见以及特朗普政府推动创新的影响——以及监管放宽——卡普里格利奥众议员和德克萨斯州议会于2025年3月推出了一个大幅缩减版本的TRAIGA,称为HB 149。HB 149于4月由德克萨斯州众议院通过,5月由德克萨斯州参议院通过,随后于2025年6月由州长阿博特签署成为法律。
现行版本
该法案不再提及“高风险”人工智能系统。该法案主要针对由政府实体开发或部署的人工智能系统,尽管如上所述,一些披露要求适用于医疗保健实体,一些针对开发者和部署者的禁令仍然存在。与原法案不同,该法案不要求私人实体进行影响评估、实施风险管理政策,或在与人工智能互动时向消费者披露。该法案还将社会评分的禁令限制在政府实体。该法案明确指出,差异影响不足以追究州或联邦受保护群体中的个人非法歧视的责任。后一规定显然源于特朗普政策目标,即反对甚至禁止差异影响作为非法歧视的指标(参见我们关于此主题的四月洞察)。该法案设立了一个由州长、副州长和众议院议长任命的七名成员组成的人工智能咨询委员会。该委员会将协助州立法机构和州机构,通过识别和推荐人工智能政策和法律改革来协助工作。它还将为州机构和地方政府开展人工智能培训计划。然而,该委员会明确被禁止自行制定具有约束力的规章。该法案将唯一的执法权授予德克萨斯州总检察长(AG),除非在AG建议的情况下,州机构可以在某些条件下对违规者施加制裁。该法案明确表示不为个人提供个人诉讼权利。根据该法案,总检察长必须为消费者潜在违规投诉建立报告机制。然后总检察长可以发出民事调查令,请求信息,包括请求详细描述人工智能系统。在收到总检察长的违规通知后,相关方有60天时间纠正违规行为,之后总检察长可以提起法律诉讼并寻求未纠正违规行为的民事处罚。可纠正的违规行为每次处以10,000至12,000美元的罚款。不可纠正的违规行为每次处以80,000至200,000美元的罚款。持续违规行为每天处以40,000美元的罚款。该法案还赋予州机构权力,通过吊销或暂停其执照,或对受该机构许可的当事人处以最高100,000美元的罚款来制裁他们。
TRAIGA下的AI监管沙盒计划
最显著的是,TRAIGA的最终版本设立了“监管沙盒”例外计划(“计划”),以鼓励人工智能创新。该计划将由德克萨斯州信息资源部(DIR)负责管理,旨在支持在宽松的监管限制下测试和开发人工智能系统。申请者必须提供人工智能系统的详细描述,包括:人工智能系统对消费者、隐私和公共安全的好处和影响;在测试期间出现不利后果时的缓解计划;以及提供符合联邦人工智能法律法规的证明文件。参与者必须向DIR提交季度报告,DIR将据此提交年度报告,向德克萨斯州立法机构提出未来立法的建议。季度报告将包括绩效指标、AI系统如何缓解风险的更新情况以及来自消费者和利益相关者的反馈。参与者将有36个月的时间测试和开发他们的AI系统,在此期间,德克萨斯州总检察长不得提起诉讼,州机构也不得对违反TRAIGA所放弃的州法律和法规的行为进行惩罚性行动。
TRAIGA并不是第一个或唯一一个建立监管沙盒计划的人工智能立法——根据2023年经济合作与发展组织(OECD)的一份报告,该报告描述监管沙盒为“当局与企业合作测试挑战现有法律框架的创新产品或服务”,并且“参与企业可以获得特定法律条款或合规流程的豁免以促进创新”。事实上,监管沙盒在人工智能系统广泛应用之前就已经存在;这一概念广泛归功于英国金融行为监管局(FCA),它在2014年作为其“创新项目”(Project Innovate)的一部分引入了这一概念,以鼓励金融科技领域的创新。2016年,“创新项目”推出了监管沙盒,为商业企业提供了一个受控环境,用于测试新的金融产品和服务。关于人工智能,《欧盟人工智能法案》第57条要求成员国必须在国家层面设立至少一个AI监管沙盒,并须于2026年8月2日前投入使用。该条款还解释了监管沙盒的目的和目标:提供一个受控环境,以促进创新并促进人工智能系统在投放市场或投入使用前的开发、培训、测试和验证。
一些其他美国州待审议的AI法案如果得以通过,也将设立自己的AI监管沙盒。康涅狄格州有一项法案(CTSB 2),如果通过,将设立有关AI系统的各种要求,包括设立AI监管沙盒计划。该法案已于2025年5月14日通过州参议院,并正在众议院审议中。特拉华州的《众议院联合决议7号》(HJR 7)如果通过,将指示人工智能委员会与州务卿合作,制定一个监管沙盒框架。该法案认识到“其他州和国家正在使用监管沙盒,即由监管机构设立的框架,在监管机构的监督下,公司可以免除某些法规的法律风险,以测试创新和新颖的产品、服务和技术。” HJR 7已在众议院和参议院通过,准备提交给州长签署。俄克拉荷马州的法案(HB 1916)于2025年2月3日提出。该法案呼吁制定一项新法律,称为《负责任部署人工智能系统法案》。该法案将设立一个人工智能委员会,其中包括监督新设立的人工智能监管沙盒计划,该计划将“为部署者提供一个受控环境,以测试符合伦理和安全标准的创新人工智能系统”。
未来的发展
德克萨斯州在一项拟议的十年期联邦暂停令背景下通过了TRAIGA,该暂停令限制州政府制定和执行监管某些人工智能系统或自动化决策系统的法律的能力。这项拟议的暂停令是特朗普总统全面国内政策法案的一部分,被称为“大而美丽的法案”。然而,2025年7月1日,美国参议院几乎一致投票——99比1——支持从该法案中删除暂停令,该法案随后当天晚些时候通过。一些人预测,暂停令可能会以某种形式重新出现。目前,白宫的AI行动计划预计将于2025年7月发布,这将使联邦层面的人工智能再次成为头条新闻。2025年1月23日发布的行政命令14179“消除美国在人工智能领域领导地位的障碍”,要求在180天内提交此类计划——由总统科学和技术助理(APST)、人工智能和加密特别顾问、总统国家安全事务助理(APNSA)等共同制定。2月份,白宫发布了一份信息请求(RFI),征求公众对AI行动计划政策想法的意见,旨在“界定优先政策行动,以增强美国作为人工智能强国的地位,并防止不必要的繁重要求阻碍私营部门的创新。”到4月底,科技政策办公室(OSTP)报告称,已收到包括学术界、行业协会、私营部门组织以及州、地方和部落政府在内的利益相关方超过10,000条公众意见。我们预计将在2025年下半年为读者带来大量人工智能领域的新闻。
Epstein Becker Green的专职律师Ann W. Parks为本文的撰写做出了贡献。[查看来源。]
(以上内容均由Ai生成)