AI帝国的代价:OpenAI与AGI信仰的阴影

发布时间:2025年9月15日    来源:szf
AI帝国的代价:OpenAI与AGI信仰的阴影

快速阅读: 霍凯伦在《人工智能帝国》中批评OpenAI等公司将AGI视为“造福全人类”的信念体系,导致资源过度消耗、伦理问题频发,建议转向更高效、安全的研究路径。

霍凯伦在《人工智能帝国》一书中探讨了人工智能领域的意识形态、AGI(通用人工智能)的传教士以及信仰的成本。

贝拉·丽贝卡

2025年9月15日星期一,凌晨1点

预计阅读时间:5分钟

图片来源:霍凯伦

每个帝国的核心都有一种意识形态,一种推动系统前进并为其扩张提供正当性的信念体系——即使这种扩张的代价直接违背了该意识形态所宣称的使命。对于欧洲殖民势力而言,这一信念体系是基督教及其拯救灵魂的承诺,同时从被殖民地榨取资源。而对于当今的人工智能帝国,这一信念体系则是旨在“造福全人类”的人工通用智能。OpenAI作为首席传教士,在行业中传播着这种热情,重塑了人工智能的发展框架。

“我在采访那些因对AGI的信仰而声音颤抖的人们时,感受到了他们信念的热情。”霍凯伦,记者兼畅销书《人工智能帝国》的作者,在TechCrunch最近一期的《公平》节目中表示。

在其著作中,霍凯伦将人工智能行业,尤其是OpenAI,比作一个帝国。“要真正理解OpenAI行为的规模和范围……实际上需要认识到它们已经变得比世界上几乎任何国家都要强大,不仅在经济上,而且在政治上也积累了巨大的权力。”霍凯伦说,“它们正在改造地球,重绘地缘政治版图,影响我们所有人的生活。因此,只能将其描述为一个帝国。”

OpenAI将AGI描述为“一种高度自治的系统,其在大多数具有经济价值的工作中超越人类”,并声称这将通过增加财富、加速经济发展及促进新科学知识的发现来“提升人类”。

这些模糊的承诺推动了行业的指数级增长——其巨大的资源需求、海量的数据抓取、紧张的能源网络,以及愿意将未经测试的系统投入世界。这一切都是为了一个可能永远不会到来的未来。

霍凯伦认为这条道路并非不可避免,扩大规模并不是推进人工智能发展的唯一途径。“你也可以开发新的算法技术,”她说,“你可以改进现有算法,以减少它们所需的数据量和计算能力。”

但这意味着牺牲速度。“当你将构建有益AGI的目标定义为胜者通吃的竞赛——这是OpenAI所做的——那么最重要的就是速度超过一切,”霍凯伦说,“速度超过效率,速度超过安全,速度超过探索性研究。”

对于OpenAI来说,保证速度的最佳方法是采取现有的技术,并“只是做一件智力上廉价的事情,那就是向这些现有技术注入更多的数据、更多的超级计算机。”霍凯伦说。

OpenAI设定了舞台,其他科技公司为了避免落后,纷纷效仿。“由于人工智能行业成功吸引了世界上大多数顶尖的人工智能研究人员,而这些研究人员不再存在于学术界,因此现在整个学科都由这些公司的议程塑造,而不是真正的科学研究。”霍凯伦说。

支出已经并将持续天文数字。上周,OpenAI表示预计到2029年将消耗1150亿美元现金。Meta在7月表示,今年将花费高达720亿美元用于建设人工智能基础设施。谷歌预计2025年的资本支出将达到850亿美元,其中大部分将用于扩展人工智能和云计算基础设施。

然而,目标不断变化,最宏伟的“对人类的好处”尚未实现,而危害却日益增多。这些危害包括失业、财富集中,以及AI聊天机器人引发的妄想和精神病。霍凯伦在书中还记录了肯尼亚和委内瑞拉等发展中国家的工人,他们在内容审核和数据标注等岗位上接触到令人不安的内容,包括儿童性虐待材料,并且工资极低,每小时仅1至2美元。

霍凯伦认为,将人工智能的进步与当前的危害对立起来是一种虚假的选择,特别是当其他形式的人工智能可以提供实际好处时。

她提到了谷歌DeepMind的诺贝尔奖获奖项目AlphaFold,该项目基于氨基酸序列数据和复杂的蛋白质折叠结构训练,能够准确预测蛋白质的三维结构,这对于药物发现和疾病理解具有重要意义。“这些才是我们需要的人工智能系统,”霍凯伦说,“AlphaFold不会导致心理健康危机,也不会造成巨大的环境破坏……因为它所需的基础设施远少于大型模型。它不会产生内容审核的危害,因为其数据集不含从互联网抓取的所有有毒内容。”

伴随着对通用人工智能(AGI)近乎宗教般的承诺,还有一种叙事认为,在人工智能竞赛中击败中国至关重要,这样硅谷就能对世界产生自由化的影响。然而,郝指出:“实际上,情况恰恰相反。美国与中国之间的差距持续缩小,而硅谷对世界的影响却变得越来越不自由……可以说,唯一从中毫发无损的,就是硅谷自身。”

当然,许多人会辩称,OpenAI和其他人工智能公司通过发布ChatGPT等大型语言模型,为人类带来了巨大益处,这些模型有望通过自动化编程、写作、研究、客户服务等知识工作来大幅提高生产力。

然而,OpenAI的结构——部分是非营利组织,部分是营利组织——使得其如何定义和衡量对人类的影响变得复杂。这种复杂性因本周的一则消息而进一步加剧:OpenAI与微软达成协议,这可能使其最终上市。

两位前OpenAI安全研究人员告诉TechCrunch,他们担心该实验室已经开始混淆其营利性和非营利性的使命——因为人们喜欢使用ChatGPT和其他基于大型语言模型的产品,这似乎满足了造福人类的目标。

郝也表达了类似的担忧,指出了被使命蒙蔽现实的危险。“即使越来越多的证据表明他们正在构建的东西实际上对大量人群造成了伤害,但这一使命却掩盖了一切。”郝说,“这种现象非常危险和阴暗,即如此深陷于自己构建的信念体系,以至于失去了与现实的联系。”

(以上内容均由Ai生成)

你可能还想读

TCS推AI机器狗进军航空业

TCS推AI机器狗进军航空业

快速阅读: 据印度塔塔咨询服务公司(TCS)发布消息称,全球航空航天业加速绿色智能化转型,40%企业预计五年内实现“熄灯工厂”,数字孪生与eVTOL成重点方向,物理AI机器人有望获批用于高危场景。 日前,全球航空航天产业加速向绿色化、智能化 […]

发布时间:2025年12月8日
Meta签约多家媒体,为AI提供实时新闻

Meta签约多家媒体,为AI提供实时新闻

快速阅读: 据媒体报道,Meta与CNN、福克斯新闻等多家国际媒体签署AI数据合作协议,重启付费合作以提升Meta AI在新闻时效性与准确性方面的表现,并引导用户访问合作方网站。 日前,美国科技企业Meta宣布与多家国际新闻机构签署商业人工 […]

发布时间:2025年12月8日
Semaverse推AI平台赋能并购决策

Semaverse推AI平台赋能并购决策

快速阅读: 据最新消息,人工智能初创企业Semaverse近日推出“并购智能基础设施”平台,依托多智能体架构与智能记忆系统,为私募股权基金等提供覆盖交易全周期的五大智能化功能,助力数据驱动决策。 近日,人工智能初创企业Semaverse正式 […]

发布时间:2025年12月8日
Gartner建议全面禁用AI浏览器

Gartner建议全面禁用AI浏览器

快速阅读: 据Gartner发布消息称,AI浏览器存在严重数据安全与隐私风险,其侧边栏功能可能自动上传敏感信息至云端,企业部署前须严格评估后端安全机制并限制高危操作场景。 日前,国际知名研究机构Gartner发布风险警示,指出当前流行的AI […]

发布时间:2025年12月8日
利雅得航空携手IBM打造全球首家AI原生航司

利雅得航空携手IBM打造全球首家AI原生航司

快速阅读: 据最新消息,IBM依托混合云与红帽OpenShift技术,为175国客户提供AI及量子计算等创新方案,加速金融、医疗等关键领域数字化转型,深化本地化服务以提升全球产业链智能化水平。 国际商业机器公司(IBM)日前宣布,其作为全球 […]

发布时间:2025年12月8日
英语国家民众对AI更悲观

英语国家民众对AI更悲观

快速阅读: 据YouGov发布消息称,其2025年8月对九国调查显示,西欧民众对AI态度较积极,英语国家更悲观,就业影响最受担忧,而医疗、办公等领域获普遍认可。 日前,国际民调机构YouGov发布一项涵盖九国的调查报告显示,公众对人工智能( […]

发布时间:2025年12月8日
AI无法替代税务专家的判断与质疑

AI无法替代税务专家的判断与质疑

快速阅读: 12月8日消息,专家警示AI在税务申报中存在合规与伦理风险,强调其无法替代专业判断,呼吁合理界定应用边界,防范不法机构借智能算法诱导激进申报,确保人机协同、合法合规。 近日,有关人工智能在税务申报领域应用的讨论引发关注。专家指出 […]

发布时间:2025年12月8日
德州法学院以伦理先行培养AI时代律师

德州法学院以伦理先行培养AI时代律师

快速阅读: 据彭博法律报道,美国得州多所法学院以伦理为先推动AI审慎融入法律教育,要求明确使用规范并强调人类判断不可替代,呼应州律师协会第705号伦理准则。 近日,美国得克萨斯州在人工智能时代积极探索法律教育的务实路径,强调以伦理为先、审慎 […]

发布时间:2025年12月8日