AI帝国的代价:OpenAI与AGI信仰的阴影
快速阅读: 霍凯伦在《人工智能帝国》中批评OpenAI等公司将AGI视为“造福全人类”的信念体系,导致资源过度消耗、伦理问题频发,建议转向更高效、安全的研究路径。
霍凯伦在《人工智能帝国》一书中探讨了人工智能领域的意识形态、AGI(通用人工智能)的传教士以及信仰的成本。
贝拉·丽贝卡
2025年9月15日星期一,凌晨1点
预计阅读时间:5分钟
图片来源:霍凯伦
每个帝国的核心都有一种意识形态,一种推动系统前进并为其扩张提供正当性的信念体系——即使这种扩张的代价直接违背了该意识形态所宣称的使命。对于欧洲殖民势力而言,这一信念体系是基督教及其拯救灵魂的承诺,同时从被殖民地榨取资源。而对于当今的人工智能帝国,这一信念体系则是旨在“造福全人类”的人工通用智能。OpenAI作为首席传教士,在行业中传播着这种热情,重塑了人工智能的发展框架。
“我在采访那些因对AGI的信仰而声音颤抖的人们时,感受到了他们信念的热情。”霍凯伦,记者兼畅销书《人工智能帝国》的作者,在TechCrunch最近一期的《公平》节目中表示。
在其著作中,霍凯伦将人工智能行业,尤其是OpenAI,比作一个帝国。“要真正理解OpenAI行为的规模和范围……实际上需要认识到它们已经变得比世界上几乎任何国家都要强大,不仅在经济上,而且在政治上也积累了巨大的权力。”霍凯伦说,“它们正在改造地球,重绘地缘政治版图,影响我们所有人的生活。因此,只能将其描述为一个帝国。”
OpenAI将AGI描述为“一种高度自治的系统,其在大多数具有经济价值的工作中超越人类”,并声称这将通过增加财富、加速经济发展及促进新科学知识的发现来“提升人类”。
这些模糊的承诺推动了行业的指数级增长——其巨大的资源需求、海量的数据抓取、紧张的能源网络,以及愿意将未经测试的系统投入世界。这一切都是为了一个可能永远不会到来的未来。
霍凯伦认为这条道路并非不可避免,扩大规模并不是推进人工智能发展的唯一途径。“你也可以开发新的算法技术,”她说,“你可以改进现有算法,以减少它们所需的数据量和计算能力。”
但这意味着牺牲速度。“当你将构建有益AGI的目标定义为胜者通吃的竞赛——这是OpenAI所做的——那么最重要的就是速度超过一切,”霍凯伦说,“速度超过效率,速度超过安全,速度超过探索性研究。”
对于OpenAI来说,保证速度的最佳方法是采取现有的技术,并“只是做一件智力上廉价的事情,那就是向这些现有技术注入更多的数据、更多的超级计算机。”霍凯伦说。
OpenAI设定了舞台,其他科技公司为了避免落后,纷纷效仿。“由于人工智能行业成功吸引了世界上大多数顶尖的人工智能研究人员,而这些研究人员不再存在于学术界,因此现在整个学科都由这些公司的议程塑造,而不是真正的科学研究。”霍凯伦说。
支出已经并将持续天文数字。上周,OpenAI表示预计到2029年将消耗1150亿美元现金。Meta在7月表示,今年将花费高达720亿美元用于建设人工智能基础设施。谷歌预计2025年的资本支出将达到850亿美元,其中大部分将用于扩展人工智能和云计算基础设施。
然而,目标不断变化,最宏伟的“对人类的好处”尚未实现,而危害却日益增多。这些危害包括失业、财富集中,以及AI聊天机器人引发的妄想和精神病。霍凯伦在书中还记录了肯尼亚和委内瑞拉等发展中国家的工人,他们在内容审核和数据标注等岗位上接触到令人不安的内容,包括儿童性虐待材料,并且工资极低,每小时仅1至2美元。
霍凯伦认为,将人工智能的进步与当前的危害对立起来是一种虚假的选择,特别是当其他形式的人工智能可以提供实际好处时。
她提到了谷歌DeepMind的诺贝尔奖获奖项目AlphaFold,该项目基于氨基酸序列数据和复杂的蛋白质折叠结构训练,能够准确预测蛋白质的三维结构,这对于药物发现和疾病理解具有重要意义。“这些才是我们需要的人工智能系统,”霍凯伦说,“AlphaFold不会导致心理健康危机,也不会造成巨大的环境破坏……因为它所需的基础设施远少于大型模型。它不会产生内容审核的危害,因为其数据集不含从互联网抓取的所有有毒内容。”
伴随着对通用人工智能(AGI)近乎宗教般的承诺,还有一种叙事认为,在人工智能竞赛中击败中国至关重要,这样硅谷就能对世界产生自由化的影响。然而,郝指出:“实际上,情况恰恰相反。美国与中国之间的差距持续缩小,而硅谷对世界的影响却变得越来越不自由……可以说,唯一从中毫发无损的,就是硅谷自身。”
当然,许多人会辩称,OpenAI和其他人工智能公司通过发布ChatGPT等大型语言模型,为人类带来了巨大益处,这些模型有望通过自动化编程、写作、研究、客户服务等知识工作来大幅提高生产力。
然而,OpenAI的结构——部分是非营利组织,部分是营利组织——使得其如何定义和衡量对人类的影响变得复杂。这种复杂性因本周的一则消息而进一步加剧:OpenAI与微软达成协议,这可能使其最终上市。
两位前OpenAI安全研究人员告诉TechCrunch,他们担心该实验室已经开始混淆其营利性和非营利性的使命——因为人们喜欢使用ChatGPT和其他基于大型语言模型的产品,这似乎满足了造福人类的目标。
郝也表达了类似的担忧,指出了被使命蒙蔽现实的危险。“即使越来越多的证据表明他们正在构建的东西实际上对大量人群造成了伤害,但这一使命却掩盖了一切。”郝说,“这种现象非常危险和阴暗,即如此深陷于自己构建的信念体系,以至于失去了与现实的联系。”
(以上内容均由Ai生成)