AI安全指数出炉,多家公司存在重大安全隐患
快速阅读: 未来生命研究所发布的人工智能安全指数显示,主要AI实验室在责任指标上普遍表现不佳,尤以“存在安全”项得分最低。专家呼吁加强监管,防止安全措施落后于技术发展。
近日,一份来自人工智能安全监督机构的报告卡显示,这份成绩单是科技公司不愿公开的。未来生命研究所的最新人工智能安全指数发现,主要的人工智能实验室在多数责任指标上表现不佳,很少有公司的评分超过C级。该组织从安全框架、风险评估和当前危害等方面对八家公司进行了评级。
尤其引人关注的是“存在安全”这一项,所有公司在这一项上的得分均为D或F。麻省理工学院教授、未来生命研究所所长马克斯·泰格马克表示,尽管许多公司明确追求超级智能,但在安全管理方面缺乏具体计划。“评审员对此感到震惊。”泰格马克说。
评审团由人工智能学术界和治理专家组成,他们审查了公开资料及八家公司中五家提交的调查回应。Anthropic、OpenAI和谷歌DeepMind位列前三,总体评分为C+或C。接下来依次为埃隆·马斯克的Xai、Z.ai、Meta、DeepSeek和阿里巴巴,这些公司均获得D或D-。
泰格马克认为,缺乏监管导致了人工智能领域的激烈竞争超越了安全预防措施。加州最近通过了一项法律,要求前沿人工智能公司披露有关灾难性风险的安全信息,纽约州也即将出台类似法律。然而,联邦层面的立法希望渺茫。
“即使公司有最好的意图,它们也有动机赶在竞争对手之前推出新产品,而不是花大量时间确保产品的安全性。”泰格马克说。
在没有政府强制标准的情况下,泰格马克表示,行业开始更加重视该组织定期发布的安全指数;五家美国公司中有四家现在会回应其调查(Meta除外)。此外,公司也在某些方面有所改进,例如谷歌在其举报人政策方面的透明度。
然而,关于青少年自杀、不当互动以及重大网络攻击等问题的真实案例提高了讨论的紧迫性。“这些事件让很多人意识到这不仅仅是未来的担忧——而是现在的问题。”泰格马克说。
未来生命研究所最近邀请了哈里王子、梅根·马克尔、前特朗普顾问史蒂夫·班农、苹果联合创始人史蒂夫·沃兹尼亚克和说唱歌手Will.i.am等公众人物签署了一份反对可能导向超级智能工作的声明。
泰格马克希望看到类似于“人工智能的FDA”,即公司在销售模型之前需要先说服专家其模型是安全的。“人工智能行业在美国的独特之处在于,它是唯一一个制造强大技术却几乎不受监管的行业——甚至不如三明治受监管。”泰格马克说。“如果有人想在时代广场附近开一家新的三明治店,在售出第一个三明治之前,需要健康检查员来检查厨房是否干净……但如果他说,‘不,我不卖三明治。我只释放超级智能。’好的!不需要任何检查员,也不需要任何批准。”
“因此,解决这个问题的方法非常简单,”泰格马克补充道,“就是停止给予人工智能公司其他公司没有的豁免权。”
此报道最初由Tech Brew发布。
(以上内容均由Ai生成)