李飞飞合著的报告强调在考虑人工智能法规时需要考虑未来风险
快速阅读: 《硅角度》消息,一份由李飞飞等学者撰写的人工智能报告呼吁加州立法者前瞻未来风险。报告强调前沿模型透明度及第三方评估标准,建议保护内部举报人。报告获业内专家认可,但未支持具体立法。
一份由人工智能先驱李飞飞共同撰写的新报告呼吁立法者在制定管理人工智能技术使用方式的法规时,预见尚未被构想出的未来风险。这份由前沿人工智能模型联合加州政策工作组撰写的41页报告,是在加利福尼亚州州长加文·纽森否决该州最初的《人工智能安全法案》SB 1047之后发布的。
去年,纽森州长否决了这项引发争议的立法,并表示立法者需要对人工智能风险进行全面评估,然后再尝试制定更好的法律。李飞飞与卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔以及加州大学伯克利分校计算学院院长詹妮弗共同撰写了这份报告。在这份报告中,他们强调了确保像OpenAI、谷歌有限责任公司和Anthropic公共有限公司等公司正在开发的所谓“前沿模型”透明度的必要性。他们还敦促立法者考虑要求人工智能开发者公开其数据获取方法、安全措施和安全测试结果等信息。
此外,报告还强调了关于第三方对人工智能安全性评估的更严格标准的需求,并建议应为人工智能公司的内部举报人提供保护。在发布之前,该报告已由众多人工智能行业利益相关者审阅,其中包括人工智能安全倡导者Yoshua Bengio和Databricks Inc.联合创始人Ion Stoica,他们曾反对原始的SB 1047法案。报告的部分内容指出,目前关于人工智能可能用于网络攻击和生物武器制造的证据尚不充分。作者写道,因此任何人工智能政策不仅必须解决现有风险,还必须解决如果未采取足够保障措施可能会出现的任何未来风险。他们用一个类比来强调这一点,指出无需亲眼见证核武器爆炸就能预测它会造成的广泛危害。“如果那些推测最极端风险的人是对的——而且我们不确定他们会是——那么在这个关键时刻对前沿人工智能无所作为的风险和代价是非常高的,”报告中写道。
鉴于这种对未知的恐惧,合著者表示政府应该围绕人工智能透明度实施两管齐下的策略,重点放在“信任但需验证”的概念上。为此,人工智能开发者及其员工应该有合法渠道报告任何可能带来安全风险的新发展,而不用担心受到法律追究。
值得注意的是,目前的报告仍只是初步版本,完整的报告将在6月发布。该报告并未支持任何具体立法,但它强调的安全问题得到了专家们的高度认可。例如,乔治梅森大学的人工智能研究员迪恩·鲍尔因其批评SB 1047法案并对其被否决感到高兴,在X平台发文称这是行业的“积极一步”。与此同时,最初提出SB 1047法案的加州参议员斯科特·威尼也注意到,该报告继续了他在未通过的立法中首次提出的关于人工智能治理的“紧迫对话”。
照片来源:史蒂夫·尤尔维特森/Flickr
来自硅巷联合创始人约翰·弗瑞特的一条消息:您的支持对我们很重要,它帮助我们保持内容免费。只需点击一下即可支持我们的使命,即提供免费、深入且相关的报道。
加入我们的YouTube社区
加入包括超过15,000名#Cube校友专家在内的社区,其中包括亚马逊首席执行官安迪·贾西、戴尔科技创始人兼首席执行官迈克尔·戴尔、英特尔首席执行官帕特·格尔辛格等人。
“立方体是一个重要的行业伙伴。你们真的是我们活动的一部分,我们非常感谢你们的到来,我知道人们也很欣赏你们创造的内容。”
——安迪·贾西
感谢您的支持!
(以上内容均由Ai生成)