纽森工作组呼吁提高 AI 开发的重要透明度
快速阅读: 据《民主与技术中心》称,加州成立工作组起草人工智能治理报告,强调透明度重要性。目前透明度多依赖企业自愿,缺乏稳定性,需加强监管确保开发者提供安全、负责的人工智能开发所需透明度,并建议增加具体细节和第三方评估机制,以促进风险管理和公众信任。
去年九月,加州州长加文·纽森组建了一个由知名学者和政策专家领导的工作组,起草了一份关于人工智能前沿模型的报告,旨在为监管机构提供参考,并为加州如何处理这项先进技术的使用、评估及治理制定框架。今年三月,工作组发布了报告草案以征求公众意见,本周,加州数字图书馆(CDT)提交了我们的意见。
我们在评论中指出,工作组强调人工智能治理中透明度的重要性至关重要。长期以来,研究者与倡导者一致认为,透明度是管理人工智能风险、使其利益惠及各类利益相关者的有力杠杆。通过推动严谨的研究并为公众提供关于人工智能系统如何影响他们生活的关键信息,透明度能够发挥重要作用。此外,透明度要求还能为企业更负责任地开发人工智能系统创造条件,并在这些系统造成危害时帮助追究相关公司的责任。
然而,目前人工智能生态系统中的几乎所有透明度都依赖于人工智能公司纯粹的自愿承诺,而这并非管理人工智能风险的稳定基础。当商业激励发生变化时,人工智能公司往往倾向于放弃其透明度承诺。例如,近期谷歌发布了最先进的AI模型Gemini 2.5 Pro,却未附带关键的安全报告,这一行为违背了之前的承诺。这凸显出监管机构的重要角色:确保人工智能开发者提供安全、负责任且可问责的人工智能开发所需的透明度。
同时,鉴于最有用的透明度措施是那些范围明确且有清晰理论依据的措施,我们敦促工作组在其透明度建议中增加更多细节。我们呼吁补充草案报告中强调的信息披露内容,以提供更多关键信息,不仅让人了解开发者实施的技术保障措施,还能了解开发者用于管理风险的内部治理实践。我们还呼吁关注开发者如何评估其保障措施的有效性,以及开发者如何判断风险是否已被充分缓解以部署模型。
此外,我们敦促工作组推动对开发者如何应对重大风险显现的可见性。最后,我们敦促工作组考虑如何激励开发者在必要时向合适的第三方评估者开放预部署访问权限。
阅读我们的完整评论,请点击这里。(注:所有名称如加文·纽森、Gemini 2.5 Pro等均根据音译转换为中文)
—
**加州人工智能治理:透明度的必要性与未来方向**
加州正在迈向人工智能治理的新纪元。去年九月,加州州长加文·纽森组建了一个由顶尖学者和政策专家组成的工作组,致力于起草一份关于人工智能前沿模型的报告。这份报告旨在为监管机构提供指导,并为加州如何妥善处理人工智能技术的使用、评估及治理奠定框架。
今年三月,该工作组发布了报告草案,广泛征求公众意见。本周,加州数字图书馆(CDT)提交了我们的反馈意见。在评论中,我们特别强调了透明度在人工智能治理中的核心地位。透明度不仅是管理人工智能风险的关键工具,也是确保其利益公平惠及各方利益相关者的重要手段。它能推动严谨的研究,并为公众提供关于人工智能系统如何影响日常生活的关键信息。
然而,当前的人工智能生态体系中,透明度几乎完全依赖企业的自愿承诺,这显然不够稳固。例如,谷歌近期发布的最先进AI模型Gemini 2.5 Pro未能附带必要的安全报告,这种行为与此前的承诺背道而驰。这表明,监管机构需要扮演更为重要的角色,确保开发者提供安全、负责任且可问责的人工智能开发所需的透明度。
为了完善透明度机制,我们呼吁工作组在建议中增加更多具体细节。例如,应进一步补充草案中提到的信息披露内容,不仅展示开发者的技术保障措施,还要揭示其内部治理实践。同时,应关注开发者如何评估保障措施的有效性,以及如何判断风险是否已得到妥善缓解。
此外,我们敦促工作组推动对开发者如何应对重大风险显现的可见性。最后,我们希望工作组探索如何激励开发者在必要时向第三方评估者开放预部署访问权限。
人工智能的发展关乎未来,而透明度则是通往安全与信任的关键桥梁。加州作为创新的前沿阵地,其举措将为全球人工智能治理树立典范。
—
阅读我们的完整评论,请点击这里。
(以上内容均由Ai生成)