Obernolte 呼吁其他立法者解决针对特定行业的 AI 监管问题
快速阅读: 据《下一个政府》最新报道,加州共和党众议员奥伯诺尔特呼吁以行业特定方式推进联邦AI法规,警告过多州级规则将阻碍创新。他认为国会应制定统一框架,包括测试工具箱和监管沙盒,同时关注自主AI及海外模型的数据隐私风险。
加利福尼亚州共和党众议员杰伊·奥伯诺尔特重申了他在去年年底由两党人工智能工作组发布的报告中提出的呼吁,即以行业特定的方式推进联邦人工智能法规。在周三信息技术产业委员会峰会上发言时,奥伯诺尔特强调,行业特定的监管可以有效指导如何安全地利用人工智能系统,同时允许公司继续进行研究和创新。
“如果你看看去年国家标准与技术研究院(NIST)发布的风险管理框架——这被广泛认为是分析全球范围内人工智能部署潜在风险最有用的文件之一——这份报告明确指出,部署的风险高度依赖于具体情境,因此评估风险时你将如何使用人工智能非常重要。”他说,“这一点非常重要,因为这意味着在某种情境下不可接受的风险在另一种情境下可能完全无害。”
如果没有联邦框架,各州议会已经提出了许多法案来应对人工智能监管问题。奥伯诺尔特表示,过多不同的规则将阻碍美国在人工智能和机器学习领域进一步创新的目标。
“如果我们未能在第2025届国会会议采取行动,我们面临的风险是所有州都会走在我们前面,就像他们在数字银行账户方面所做的那样。很快,我们将有50种不同的标准来定义什么是安全和可信的人工智能部署。”他说,“这非常具有破坏性,不仅对我们的创新能力,而且对创业精神也是如此。”
他还补充说,国会必须利用第2025届国会会议的立法机会,将行业特定的方法和其他众议院人工智能工作组的建议编纂成法。理想情况下,这应包括一个中央存储库,用于人工智能模型测试和评估方法。
“我们不能期望所有的行业监管者都是人工智能及其相关风险和失败模式的专家。”他说,“所以我们需要为他们提供一个工具箱,不仅包括测试和评估方法,还包括监管沙盒,用于测试潜在恶意的人工智能,以及他们可以依赖的技术人才池,以便他们不必在各自的不同机构中重新发明轮子。”
奥伯诺尔特与其他立法者讨论的其他议题包括具备更强自主性的代理型人工智能系统的数据隐私威胁——这些系统可以通过自主决策和持续学习执行超特定任务——以及来自中国大型语言模型DeepSeek的威胁。
“我们不知道这些数据去了哪里,我们怀疑它有与TikTok相同的漏洞。”奥伯诺尔特说,“我认为,我们将面临一个重大挑战,就是教育美国人要小心,并且要与作为您的代理方的人建立信任关系,尤其是在这种代理是由自动化操作完成的情况下。”
(以上内容均由Ai生成)