AI 需要发生灾难性事件才能得到认真对待
快速阅读: 《独立报》消息,冷战期间,斯坦尼斯拉夫·彼得罗夫凭借直觉避免了一场核灾难,类似情况正频繁发生在AI领域。AI事故数据库记录了2024年的253起事故,从人员伤亡到经济损失,隐患日益增多。专家警告,除非重视,否则灾难性事件或将重演历史。各国虽逐步重视AI安全,但监管仍显滞后。
冷战时期最接近核末日的一次危机,是由计算机错误引发的。1983年9月26日晚,当时44岁的斯坦尼斯拉夫·彼得罗夫在莫斯科郊区的苏联雷达站值班时,屏幕显示出现了五枚洲际弹道导弹。按照规定,他应立即向上级汇报这一威胁,这可能触发对美国的报复性打击,进而引发全面核战争。然而,彼得罗夫选择违背流程,因为他怀疑计算机的判断。如今,彼得罗夫被誉为“拯救世界的人”,他的决定是正确的。那次事件是AI事故数据库中记录的第一起事件,该数据库于2018年启动,旨在记录由计算机和人工智能系统引发的危险时刻。此类事故的数量正在逐年攀升,2024年记录了创纪录的253起,预计2025年还会增加。
部分事故造成了人员伤亡,例如德国大众工厂内一名工人被机器人压死,或者自动驾驶车辆致死人数的增加。另一些事故则只是带来了不便,比如亚马逊的性别歧视招聘工具对女性候选人的评分偏低,或是面部识别技术失误导致的误捕事件。
尽管事故数量不断上升,但有人担忧,只有在发生真正灾难性的事件后,人工智能带来的威胁才会引起足够的重视。硅谷的技术趋势研究者马里奥·赫尔格博士将此称为“人工智能珍珠港”——借鉴1941年日本飞机袭击美国珍珠港海军基地的毁灭性事件,那次袭击导致2400人死亡,并最终促使美国加入二战。
在2021年的博客文章中,赫尔格写道,只有当“一次攻击导致人工智能杀死数千人或从政府窃取数百亿欧元”时,人工智能的安全问题才会成为优先事项。他总结说,“人工智能珍珠港”的到来并非不可避免,因为人们无法准备和防御它,而是因为我们通常直到灾难发生后才采取行动。
他推测,这种事件可能以人形机器人因故障大规模攻击人类的形式出现,或者由恶意人工智能控制关键基础设施,导致致命停电或经济混乱。
自从那篇博客发表以来,ChatGPT及其他高级模型的普及使得人工智能比以往任何时候都更加普遍,这也大大增加了此类事件发生的可能性。
“人工智能无处不在,我们将看到更多形式的人工智能物种占据我们的空间,”赫尔格告诉《独立报》,并指出如今正在大规模生产的人形机器人以及不断增长的高科技无人机。这意味着潜在的攻击途径正在增加。一如既往,最坏的结果虽然非常不可能,但比专家们所说的要更有可能发生。
为了应对这些威胁,领先的公司如OpenAI、谷歌和Meta都有人工智能安全政策来负责任地开发人工智能。近年来,世界各地的政府也加强了对人工智能安全的关注。但如同其他技术一样,监管总是滞后于创新的步伐。
今年2月,来自100多个国家的领导人在巴黎召开的人工智能行动峰会上聚集一堂,以制定协调一致的人工智能发展与安全策略。尽管60个国家签署了声明,确保人工智能是“开放、包容、透明、道德、安全、可靠和可信的”,但有两个值得注意的国家拒绝签署:英国和美国。
包括艾伦图灵研究所的大卫·莱斯利在内的人工智能伦理专家表示,这次会议更关注推动经济增长的机会,而非解决人工智能带来的现实风险。
中国近期出现的DeepSeek和Manus等先进人工智能模型的崛起也加剧了竞争而非谨慎的关注。
七年前创立AI事故数据库的人工智能安全专家肖恩·麦格克博士指出,新的人工智能系统的到来伴随着几乎无法预测的风险。他将每一次新的问题事故比作飞机失事,因为这些问题往往只有在事后才能变得清晰。
“我不惊讶看到人工智能事故急剧上升,”他告诉《独立报》。“我们现在处于‘第一架飞机’之后的五年阶段。只有现在,所有成年人、儿童,甚至是宠物,在我们弄清楚如何使它们可靠之前,就已经拥有了自己的AI‘飞机’。虽然每年人们的AI系统变得越来越安全,但它们也在进入新的应用场景,而恶意行为者正在想办法利用它们做坏事。确保人工智能对全人类有益且安全需要在所有行业和政府层面进行技术和体制的进步。”
打开画廊中的图片
OpenAI的首席执行官山姆·阿尔特曼经常表达他对高级人工智能可能导致人类文明终结的担忧。
(法新社/盖蒂图片社)
根据麦格克的说法,一种可能的“人工智能珍珠港”情景将是“同时瘫痪全球所有联网计算机系统”的攻击。要实现这样的事情,很可能需要一种目前尚不存在的人工智能形式——至少现在还没有。
几乎所有领先的人工智能公司目前都在追求通用人工智能(AGI)或人类水平的智能。一旦达到这一点——估计时间从几个月到几十年不等——人工超级智能的到来很可能会随之而来,这意味着我们将无法理解所取得的进步。它将能够造成的破坏超过任何人类。到那时,可能为时已晚。
ChatGPT的创造者OpenAI的负责人山姆·阿尔特曼经常表达他对高级人工智能可能导致人类文明终结的担忧。但他继续推动公司提前发布产品,即使在他手下的人认为这些产品还不安全时也是如此。
阿尔特曼辩称市场压力迫使他这样做:如果新模型不发布,那么OpenAI可能会落后。另一个经常被领先的科技人员引用的理由是,人工智能有可能带来巨大的好处,抑制其发展可能会减缓有助于治愈疾病或对抗气候危机最严重影响的科学突破。
即使是赫尔格也自称是“技术乐观主义者”。他认为人工智能总体上变得更安全了,而问题事故激增仅仅是因为更多的人在使用它。“为什么?因为人工智能真的让他们的生活更好并且有用,”他说。“我认为人工智能,就像我们发明的几乎所有其他技术一样,将使我们人类大大受益。有良好政策的技术带来了让我们活得更长、更健康、生活在更清洁环境中的进步。”
由于其巨大的潜力,AGI被称为“人工智能领域的圣杯”,争夺它的竞赛非常激烈。斯坦福大学的研究人员最近的一份报告显示,中国在开发人类水平人工智能方面正在迅速赶上美国,美国公司现在正急于推出人工智能产品以保持竞争力。
打开画廊中的图片
2023年5月10日,香港Hanson Robotics公司组装机器人
(法新社/盖蒂图片社)
同一份报告还注意到人工智能相关事故上升到创纪录水平的趋势。它强调了2024年2月发生的一个特定事件,一名14岁的男孩在与聊天机器人角色长时间互动后自杀身亡。报告作者指出,这个案例象征着围绕人工智能的复杂伦理挑战,强调了在没有足够监督的情况下部署新产品所带来的风险。
正是这类事件可能是珍珠港式场景如何展开的方式。与其说是恶意行为如攻击,不如说是无意的。这也是AI事故数据库中最常见的伤害形式之一,随着越来越多的人类工作被自动化,这种情况可能会以各种关键方式发生。例如,如果1983年有一个AI负责彼得罗夫的工作,那么人工智能珍珠港可能已经发生了。
观察到通过AI事故数据库的上升问题技术,麦格克指出了通向灾难的特定路径:忽视。就像酸雨、河流污染和石油泄漏成为环境退化的标志并促使变革一样,他希望数据库也能对人工智能起到同样的作用。
“我们从这些环境事件中学到了东西,并花了数十年时间修复它们的危害,”他说。“人工智能可以用来更有效地修复环境退化,但它也带来了类似于去工业化的类似影响。我希望实时记录历史能引导社会及其技术走向更好的未来,而无需从珍珠港时刻中学习。”
更多关于人工智能,请参与我们的讨论区。
参与发人深省的讨论。
参与我们的讨论区。
阅读他们的回应。
评论将文中的英文单词都翻译成中文,最终的内容只输出中文,装备名称、人名地名、公司名称都翻译成中文,最后将语句再润色一下,使得前后文更加的通顺,让语句更加的生动,将最后的输出文本的格式看起来更美观,除此之外,不要提供任何解释文字。
(以上内容均由Ai生成)