AGI 突然成为餐桌上的话题
快速阅读: 据《麻省理工学院科技评论》称,定义AGI(人工通用智能)是一个模糊且不断变化的概念,主要指未来在认知任务上超越人类的AI。中国推出了新AI模型“曼努斯”,声称是通向AGI的窗口。然而,纽约大学教授加里·马库斯认为AGI仍需多年发展,当前技术尚未解决基础问题。与此同时,三位专家发布了《超级智能战略》论文,强调AI在多个领域的潜在风险。
首先,让我们先解决定义AGI这个棘手的问题。实际上,这是一个由致力于构建该技术的研究人员或公司塑造的模糊且不断变化的术语。但它通常指的是未来在认知任务上超越人类的AI。我们谈论的是哪种人类和哪些任务,这在评估AGI的可行性、安全性和对劳动力市场、战争和社会的影响方面至关重要。这就是为什么尽管定义AGI是一项不太引人注目的工作,但它并非琐碎而是相当重要,正如本周由Hugging Face和Google等作者发表的一篇新论文所展示的那样。在没有这种定义的情况下,我建议当你听到AGI时,要问问自己说话者指的是这个模糊术语的哪个版本。(不要害怕要求澄清!)好的,进入新闻。首先,上周中国推出了一款新的AI模型“曼努斯”。该模型旨在处理“代理性”任务,如创建网站或进行分析,并描述为“可能是通向AGI的一个窗口”。该模型正在众包平台如Fiverr和Upwork上执行现实世界任务,而Hugging Face(一个人工智能平台)的产品经理称其为“我尝试过的最令人印象深刻的AI工具”。目前尚不清楚“曼努斯”究竟有多令人印象深刻,但在这个背景下——将代理性AI视为通往AGI的垫脚石——纽约时报专栏作家埃兹拉·克莱因在周二的播客中专门讨论了AGI。这也意味着这一概念已经迅速超越了AI圈子,进入了晚餐桌上的话题。克莱因与乔治城大学教授、拜登白宫前人工智能特别顾问本·布坎南进行了讨论。他们讨论了很多内容——AGI对执法和国家安全的意义,以及为什么美国政府认为必须在中国之前开发AGI——但最具争议的部分是关于这项技术对劳动力市场潜在影响的讨论。如果AI即将在许多认知任务上表现出色,克莱因说,那么立法者最好开始思考从人类思维到算法的大规模劳动力转型对工人意味着什么。他批评民主党人在这一方面几乎没有计划。我们可以将其视为夸大AGI威胁的气球,暗示AGI的影响迫在眉睫且全面。紧跟其后并用巨大的安全别针戳破这个气球的是纽约大学神经科学教授加里·马库斯,一位AGI批评者,他在节目中反驳了这些观点。马库斯指出,最近的消息,包括OpenAI的新ChatGPT-4.5表现平平,表明AGI距离我们还有超过三年的时间。他说,尽管经过数十年的研究,基础技术问题仍然存在,扩大训练和计算能力的努力已经达到了边际收益递减。如今占主导地位的大语言模型可能甚至不是解锁AGI的关键。他认为公共领域不需要更多的人发出关于AGI的警报,因为这种言论实际上更有利于那些花钱建造它的公司,而不是公共利益。相反,我们需要更多的人质疑AGI即将到来的说法。不过,马库斯并不怀疑AGI的可能性,他只是对时间线表示怀疑。就在马库斯试图泄掉AGI气球的时候,这个气球又被重新吹大了。三位有影响力的专家——谷歌前CEO埃里克·施密特、Scale AI的CEO亚历山德·王和人工智能安全中心的主任丹·亨德里克斯——发表了一篇名为《超级智能战略》的论文。“超级智能”是指“几乎在每个智力领域都明显超越世界上最好的个人专家”的AI,亨德里克斯在电子邮件中告诉我。“与安全最为相关的一些认知任务是黑客攻击、病毒学和自主AI研究与开发——这些领域中超越人类专长可能会带来严重风险。”
(以上内容均由Ai生成)