前AI研究员为抗议DeepMind在伦敦发起绝食抗争
快速阅读: 前AI研究员Michaël Trazzi因担忧AI自主发展可能导致失控风险,在伦敦DeepMind外绝食抗议,呼吁AI公司暂停发布新模型,以防止潜在灾难。
这篇口述文章基于与Michaël Trazzi的一次对话,他是一位来自法国圣克鲁的29岁前人工智能安全研究员。目前,他正在伦敦DeepMind公司外进行第四天的绝食抗议。本文经过编辑,以缩短篇幅并提高清晰度。
2019年时,人工智能系统还不算特别危险。它们不会撒谎、欺骗,也没有能力自行造成实际伤害。即使在今天,我认为当前的模型也无法直接导致灾难性的损害。
我所担心的是接下来会发生什么。
多年来,我对人工智能的态度发生了变化——从研究和构建它,到如今公开讨论其风险。
因此,我坐在DeepMind位于伦敦总部外,进行着绝食抗议。
我在巴黎学习了计算机科学和人工智能,因为我想从事人工智能安全方面的工作。之后,我在牛津大学人类未来研究所担任人工智能安全研究员,该研究所现已关闭。
随着时间的推移,我转向了媒体工作——创办了一个YouTube频道,制作了一档关于人工智能安全的播客,最近还创作了一些短片和一部关于美国人工智能政策的纪录片。此外,我还制作了一些在TikTok和YouTube Shorts上的短视频内容。
通用人工智能(AGI)通常被定义为能够完成任何经济上有价值的任务的人工智能。像GPT-5、Claude、Grok和Gemini 2.5 Pro这样的模型已经接近这一门槛。
然而,真正的危险在于当人工智能可以自动化其自身的研究和发展。一个能够在没有人类监督的情况下构建越来越强大的继任者系统的存在,可能会远远超出我们的控制范围。想象一下,一个人工智能在病毒工程或其他武器制造方面远超任何人类的情景——这就是让我感到恐惧的场景。
我认为,在2030年前我们达到这一阶段的可能性超过50%。广泛讨论的“2027年人工智能”情景——美国和中国竞相开发通用人工智能——显示了事态可能迅速升级的速度。
那么,我的诉求是什么?
我的要求很具体:我希望DeepMind首席执行官德米斯·哈萨比斯承诺,如果其他领先的AI公司也同意的话,不再发布新的前沿模型。
这并不是要求某一个实验室单方面停止进步。而是关于协调。如果DeepMind、OpenAI和Anthropic的领导们都做出承诺,那么真正的克制就成为可能。
我们讨论的问题的严重性和人们的行动之间存在着不匹配。这次绝食抗议就是为了让行动与信念相符。
(以上内容均由Ai生成)