OpenAI 联合创始人想要一个世界末日碉堡,以防 Agi 造成被提
快速阅读: 《Vice(英国)》消息,OpenAI前首席科学家苏茨克韦尔认为需为AGI发布前的潜在灾难做准备,甚至提议修建掩体。他对技术前景持末日态度,这影响了其对OpenAI决策的支持,最终导致他离开公司。这一事件反映了人工智能发展中深刻的内部分歧与未来不确定性。
当OpenAI的前首席科学家伊利亚·苏茨克韦尔谈论通用人工智能(AGI)时,他听起来不像一个真心致力于为人类福祉开发更智能聊天机器人的人。他更像是一位即将面对自己参与引发的审判日的人。根据《大西洋》杂志记者的报道,她正在撰写一本关于2023年11月董事会危机的书,这场危机短暂地将首席执行官山姆·阿尔特曼赶下了台。豪描述说,苏茨克韦尔似乎在同时开发极其智能的人工智能,同时也做好了迎接末日的准备。在VICE的一次离奇会议上,他随口提到:“我们肯定会在发布AGI之前修建一个掩体。” 当一名研究人员追问是否认真时,他坚持自己的观点,但试图通过说进入掩体将是可选的来缓和他言论的疯狂程度。“不是所有人都需要进入地堡,”他说,“但如果想在核末世中生存下来,建议你进去并且永远不要离开。”
OpenAI的顶级科学家曾希望在发布AGI前“修建掩体”。苏茨克韦尔并不是唯一持有这种信念的人。一些内部人士形容他的心态接近于预言家。一位知情人士告诉豪:“有一群人——伊利亚就是其中之一——他们相信建造AGI将会带来真正的启示。” 这不是比喻,而是字面意义上的启示。
尽管这位科学家仍然忠于这项技术,但他似乎也在失去对OpenAI发展方向的信心。他那末日般的信念,即除非AGI掌握在正确的人手中,否则它可能会终结我们所知的生活,至少在一定程度上影响了他参与反对阿尔特曼政变的决定。正如我们现在所知,这次行动失败了。内部人士如今将这一刻称为“小插曲”,这或许是在影射漫威电影宇宙中的灭霸弹指效果。阿尔特曼依然掌控着公司,而且可能比以往更有权力,而苏茨克韦尔已经离开了OpenAI。
—
这种复杂的动态不仅揭示了技术领域内的深刻分歧,也展现了人工智能未来发展的不确定性。对于那些见证这一切的人来说,这不仅是科技的进步,更是对人类未来的深刻反思。
(以上内容均由Ai生成)