公司和研究人员在超人 AI 上存在分歧
快速阅读: 据《法国 24》最新报道,学界与业界对AGI发展存在分歧。学界质疑扩展现有技术实现人类水平AI的可能性,而企业如OpenAI看好其前景并加大投资。部分学者认为企业夸大AGI风险以获取关注,同时担忧现有AI带来的短期危害。尽管争议存在,AGI被视为历史重大事件需谨慎对待。
人类或更智能——通常称为“人工通用智能”(AGI)——将从当前机器学习技术中涌现出来的信念,引发了对未来各种假设的探讨,涵盖了从机器提供的超丰富到人类灭绝的广泛范围。上个月,OpenAI首席执行官山姆·阿尔特曼在一篇博客文章中写道:“开始指向AGI的系统正在显现。”Anthropic的达里奥·阿莫迪表示,这一里程碑“最早可能在2026年达成”。这样的预测有助于证明数百亿美元正被投入计算硬件和能源供应。不过,也有人持怀疑态度。上个月,Meta首席人工智能科学家扬·乐坤告诉法新社,“仅靠扩展LLMs(大型语言模型)无法实现人类水平的人工智能”——这些模型是目前像ChatGPT或Claude这样的系统的背后力量。乐坤的观点似乎得到了该领域大多数学者的支持。在美国人工智能促进协会(AAAI)最近的一项调查中,超过四分之三的受访者同意“扩展当前方法”不太可能产生AGI。
‘瓶中精灵’
一些学者认为,许多公司提出的主张,有时伴随着对AGI对人类危险的警告,是一种吸引注意力的策略。德国达姆施塔特工业大学领先研究员、AAAI成员克里斯蒂安·克林廷说:“企业已经进行了这些巨额投资,必须有所回报。”“他们只是说,‘这太危险了,只有我能操作它,事实上我自己也很害怕,但我们已经让瓶中的精灵出来了,所以我愿意为你牺牲自己——但你们就会依赖我。’”学术界的质疑并非完全一致,诺贝尔物理学奖得主杰弗里·欣顿或2018年图灵奖得主约书亚·本吉奥等知名人物警告了强大人工智能带来的危险。克林廷说:“这就像歌德的《浮士德》一样,你突然失去了控制。”他指的是一个诗篇,其中一位准巫师失去了对被他施魔法做家务的扫帚的控制。一个类似的、更近期的思想实验是“纸夹最大化器”。这种设想中的AI会如此专注于实现其制作纸夹的目标,以至于最终将地球以及宇宙中的所有物质转化为纸夹或纸夹制造机——首先消灭它认为可能会阻碍其进步的人类。虽然它本身不是“邪恶”的,但最大化器在与人类目标和价值观的“对齐”方面存在严重不足。克林廷表示,他“可以理解”这种恐惧——同时暗示“人类智能及其多样性和质量如此出色,计算机要超越它需要很长时间,甚至永远不可能”。他更担忧现有AI带来的短期危害,例如在与人类互动情况下出现的歧视。
‘有史以来最大的事情’
学术界与人工智能行业领袖间明显的看法差异可能只是反映人们在选择职业路径时的态度。剑桥大学人工智能:未来与责任项目主任肖恩·奥希埃加尔塔伊说:“如果你对当前技术的强大程度非常乐观,你很可能更倾向于去一家投入大量资源试图实现这一目标的公司工作。”即使阿尔特曼和阿莫迪可能对快速时间表和AGI的出现持“相当乐观”的态度,“我们也应该认真对待这个问题,因为它将是历史上最大的事情”,奥希埃加尔塔伊补充道。“如果是其他任何事情……比如2030年外星人会到达或者会有另一场大流行病之类的事情,我们会花点时间进行规划。”挑战在于向政界人士和公众传达这些想法。关于超级人工智能的讨论“确实会引发某种排斥反应……听起来像是科幻小说”,奥希埃加尔塔伊说。
© 2025 法新社
(以上内容均由Ai生成)