李飞飞合著报告强调人工智能法规需要考虑未来风险
快速阅读: 据《硅角度》称,一份由人工智能专家李飞飞参与撰写的新报告呼吁立法者关注人工智能未来的潜在风险。报告建议增强人工智能开发的透明度和监管力度,同时强调第三方评估和举报人保护机制的重要性。报告目前为中期版本,将于6月发布完整版。
由人工智能先驱李飞飞联合撰写的新报告呼吁立法者在制定法规时预见未来的风险。加州前沿人工智能模型联合政策工作组发布的这份41页报告是在加州州长加文·纽瑟姆否决该州最初的《人工智能安全法案》SB 1047之后。他去年否决了这项争议性立法,认为立法者需要对人工智能风险进行更全面的评估后再尝试制定更好的法律。
李飞飞(图片所示)与卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔及加州大学伯克利分校计算学院院长詹妮弗·图尔·查耶斯共同撰写了该报告。在这份报告中,他们强调了确保对包括OpenAI、谷歌有限责任公司和Anthropic公共有限公司等公司正在开发的所谓“前沿模型”有更多透明度的监管需求。他们还敦促立法者考虑强制要求人工智能开发者公开其数据获取方法、安全措施和安全测试结果等信息。此外,报告还强调了关于第三方评估人工智能安全性和企业政策的更严格标准的需求。同时,报告还建议为人工智能公司的举报人设立保护措施。
在发布之前,该报告已由众多人工智能行业的利益相关者进行了审查,其中包括人工智能安全倡导者Yoshua Bengio和Databricks Inc.联合创始人Ion Stoica,他们反对最初的SB 1047法案。
报告的一部分指出,目前关于人工智能可能用于网络攻击和生物武器制造的证据不足。作者写道,因此,任何人工智能政策不仅必须应对现有风险,还必须应对如果未采取足够保障措施可能会出现的任何未来风险。他们用一个类比来强调这一点,指出不需要看到核武器爆炸就能预测它会造成的广泛危害。“如果那些推测最极端风险的人是对的——而且我们不确定他们会是——那么在这个时刻对前沿人工智能无所作为的代价和风险非常高,”报告指出。
鉴于这种对未知的恐惧,合著者表示政府应该围绕人工智能透明度实施两管齐下的策略,重点放在“信任但验证”的概念上。作为其中的一部分,人工智能开发者及其员工应该有一个合法途径报告任何可能构成安全风险的新发展,而不必担心法律行动。
值得注意的是,目前的报告仍只是中期版本,完整的报告要到6月才会发布。该报告没有支持任何具体立法,但它强调的安全问题受到专家的好评。例如,乔治梅森大学的人工智能研究员迪恩·鲍尔因其批评SB 1047法案并对其被否决感到高兴,在X上发帖称这是行业的一个“有希望的步骤”。同时,最初提出SB 1047法案的加州参议员斯科特·威尼也指出,该报告继续了他在夭折的立法中提出的关于人工智能治理的“紧迫对话”。
照片来源:史蒂夫·朱尔维森/Flickr
来自硅谷立方体联合创始人约翰·弗瑞特的一条消息:您的支持对我们很重要,这帮助我们保持内容免费。只需点击一下即可支持我们的使命,提供免费、深入且相关的内容。
加入我们的YouTube社区
加入包括超过15,000名#Cube校友专家的社区,其中包括亚马逊首席执行官安迪·贾西、戴尔科技创始人兼首席执行官迈克尔·戴尔、英特尔首席执行官帕特·格尔辛格等众多名人和专家。
“立方体是我们行业的重要合作伙伴。你们真的是我们活动的一部分,我们非常感谢你们的到来,我知道人们也非常欣赏你们创造的内容。”——安迪·贾西
谢谢您!
—
### 精心润色后的文本:
由人工智能领域先驱李飞飞联合撰写的最新报告呼吁立法者在制定法规时预见未来的潜在风险。这份41页的报告由加州前沿人工智能模型联合政策工作组发布,背景是加州州长加文·纽瑟姆否决了该州最初的《人工智能安全法案》SB 1047。去年,纽瑟姆否决了这项颇具争议的立法,认为立法者需要对人工智能的风险进行全面评估后再尝试制定更完善的法律。
李飞飞(图片所示)与卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔以及加州大学伯克利分校计算学院院长詹妮弗·图尔·查耶斯共同完成了这份报告。报告强调,对于诸如OpenAI、谷歌有限责任公司和Anthropic公共有限公司等公司正在开发的所谓“前沿模型”,有必要增强透明度,并加强相应的监管需求。报告还敦促立法者考虑强制要求人工智能开发者公开其数据获取方式、安全措施及安全测试结果等信息。
此外,报告强调了第三方评估人工智能安全性与企业政策的重要性,并提出了更严格的评估标准。报告还建议设立针对人工智能公司内部举报人的保护机制。
在正式发布前,该报告已由众多人工智能行业的利益相关者审阅,其中包括人工智能安全倡导者Yoshua Bengio和Databricks Inc.联合创始人Ion Stoica,他们都曾反对最初的SB 1047法案。
报告提到,目前尚缺乏关于人工智能可能被用于网络攻击或生物武器制造的充分证据。因此,任何人工智能政策不仅要应对当前存在的风险,还必须考虑若未采取足够保障措施可能导致的未来风险。报告通过一个类比来阐明这一观点:无需亲眼见证核武器爆炸便能预见其可能带来的巨大破坏。“如果那些担忧极端风险的人是对的——尽管我们并不确定——那么当下对前沿人工智能无所作为的代价与风险将是极其高昂的,”报告如是指出。
鉴于对未知风险的忧虑,报告的作者们建议政府采取双管齐下的策略,聚焦于“信任但验证”的理念。作为策略的一部分,人工智能开发者及其员工应有一个合法渠道报告任何可能带来安全威胁的新发现,而无需担心法律后果。
值得一提的是,这份报告目前仅为中期版本,完整版预计将在6月份发布。虽然报告并未支持任何具体立法,但其强调的安全问题得到了专家们的积极评价。例如,乔治梅森大学人工智能研究员迪恩·鲍尔因批评SB 1047法案并对其被否决表示欣慰,并在社交媒体上发文称这是行业内“令人鼓舞的进步”。同时,最初提出SB 1047法案的加州参议员斯科特·威尼也指出,该报告延续了他在夭折的立法中推动的关于人工智能治理的“重要对话”。
照片来源:史蒂夫·朱尔维森/Flickr
来自硅谷立方体联合创始人的约翰·弗瑞特的一条消息:您的支持对我们至关重要,这使我们能够持续提供免费、深度且有价值的内容。只需简单点击,即可助力我们的使命。
**加入我们的YouTube社区**
加入由超过15,000名#Cube校友专家组成的社区,其中包括亚马逊首席执行官安迪·贾西、戴尔科技创始人兼首席执行官迈克尔·戴尔、英特尔首席执行官帕特·格尔辛格等众多行业领袖和专家。
“立方体是我们行业的重要伙伴。你们的存在是我们活动不可或缺的一部分,我们非常感激你们的支持。我也知道许多人十分欣赏你们产出的内容。”——安迪·贾西
谢谢您!
(以上内容均由Ai生成)