生成式 AI 最突出的怀疑论者加倍努力
快速阅读: 据《今日日本》最新报道,两年半前,ChatGPT问世震惊世界。科学家加里·马库斯质疑生成式AI的能力,认为其大语言模型存在缺陷。他提倡神经符号AI以实现人类水平智能。尽管生成式AI估值高涨,但实际应用有限且存在幻觉问题。马库斯警告,投资者若意识到其局限性,可能导致社会面临监控风险。
两年半前,ChatGPT的问世震惊了全世界,科学家兼作家加里·马库斯依然是生成式人工智能的主要质疑者,与硅谷的AI信仰者唱反调。2023年,马库斯在美国华盛顿的一次参议院听证会上坐在OpenAI首席执行官山姆·阿尔特曼身旁,两人共同敦促政界人士重视这项技术并考虑对其进行监管时,他成为了AI革命的重要人物之一。
从那时起,很多事情都发生了变化。阿尔特曼放弃了先前的谨慎呼吁,转而与日本的软银及中东的资金展开合作,推动他的公司达到天价估值,试图让ChatGPT成为下一个时代的科技巨头。“山姆已经不再从硅谷的传统势力中获得资金,”马库斯在接受法新社采访时说,“他寻求海外融资反映出一种‘走投无路’的状态。”
马库斯的批评集中在这样一个根本信念上:生成式人工智能,这种能够产生看似人类水平内容的预测技术,本质上存在太多缺陷,无法带来真正的变革。他认为,支撑这些能力的大语言模型(LLMs)本身就有缺陷,永远无法实现硅谷的宏伟承诺。“我对目前实践的人工智能持怀疑态度,”他说,“我认为人工智能可以有巨大的价值,但大语言模型并不是正确的道路。我认为运营这些公司的人员也并非世界上最好的。”
相比之下,在Web Summit上,大多数参会者的讨论都集中在生成式人工智能看似无限的潜力上,这与马库斯的怀疑形成了鲜明对比。许多人认为人类正处于实现超级智能或人工通用智能(AGI)技术的边缘,这种技术可能匹配甚至超越人类的能力。这种乐观情绪推动了OpenAI的估值达到3000亿美元,这是初创企业前所未有的水平,亿万富翁埃隆·马斯克的xAI也在努力跟上步伐。
然而,尽管有如此多的炒作,实际收益仍然有限。这项技术主要擅长于为程序员提供编码辅助以及为办公室工作生成文本。虽然AI生成的图像常常很有趣,但它们主要用作表情包或深度伪造品,对社会或商业几乎没有明显的益处。
作为一名长期任教于纽约大学的教授,马库斯提倡一种完全不同的构建人工智能的方法——他认为这种方法实际上可能以当前生成式人工智能无法实现的方式实现人类水平的智能。“全力押注大语言模型的结果之一是,任何潜在更好的替代方案都会被忽视,”他解释道。这种短视的做法将“推迟实现能帮助我们超越单纯编码的AI——浪费资源。”
相反,马库斯主张神经符号AI,这是一种尝试重建人类逻辑而不是简单地训练计算机模型在大量数据集上的方法,就像ChatGPT和谷歌的Gemini或Anthropic的Claude等产品所做的那样。他驳斥了生成式AI将消除白领工作的恐惧,指出一个简单的事实:“有太多白领工作实际上需要得到正确的答案。”这指出了AI最持久的问题:幻觉,也就是技术自信满满却犯错的已知倾向。即便是最坚定的支持者也承认这个缺陷可能无法根除。马库斯回忆起2023年与LinkedIn创始人雷德·霍夫曼的一次对话,雷德·霍夫曼是硅谷的重量级人物:“他愿意以任何金额下注幻觉会在三个月内消失。我提出给他10万美元,但他不愿意下注。”
展望未来,马库斯警告说,一旦投资者认识到生成式AI的局限性,就会出现更黑暗的后果。像OpenAI这样的公司不可避免地要对其最有价值的资产——用户数据进行商业化利用。“那些投入巨资的人自然希望得到回报,我认为这将促使他们走向监控,”他说,并指出这对社会构成奥威尔式的风险。“他们掌握了所有这些私人数据,因此可以将这些数据当作补偿来出售。”
马库斯承认,生成式AI将在某些领域找到有用的用途,偶尔出错不会造成太大影响。“它们在增强型自动完成方面非常有用:编码、头脑风暴之类的东西,”他说,“但没人能从中赚到太多钱,因为它们运行成本高昂,而且每个人都有相同的产品。”
(以上内容均由Ai生成)