2027 年 Agi 预测规划了为期 24 个月的人类水平 AI 冲刺
快速阅读: 据《VentureBeat 公司》最新报道,专家预测通用人工智能(AGI)可能在2027年实现,人工超级智能(ASI)随后跟进。这将带来巨大变革,可能影响就业、安全及人类自我认知。企业和政府需为AI带来的挑战和机遇做好准备,个人应发展独特技能并与AI健康协作。
订阅我们的每日和每周通讯,获取行业领先的人工智能最新动态和独家内容。
了解更多:遥远的地平线总是模糊不清,细节被距离和大气雾霾掩盖。这就是为什么预测未来如此不精确的原因:我们无法清楚地看到前方形状和事件的轮廓。相反,我们只能做出有根据的猜测。
由一群拥有在OpenAI和人工智能政策中心等机构经验的AI研究人员和预测师共同开发的《AI 2027》情景,提供了未来2到3年的详细预测,包含具体的技术里程碑。由于是短期预测,它清晰地描绘了我们的人工智能近未来。基于广泛专家反馈和情景规划练习,《AI 2027》概述了预期的人工智能能力季度进展,特别是多模态模型实现高级推理和自主性的进展。这一预测特别值得注意之处在于其具体性以及贡献者的可信度,他们直接了解当前的研究管道。
最显著的预测是,通用人工智能(AGI)将在2027年实现,而人工超级智能(ASI)将在几个月后跟进。AGI在几乎所有认知任务上与或超过人类的能力,从科学研究到创意活动,同时表现出适应性、常识推理和自我提升。ASI更进一步,代表着远远超越人类智力的系统,具备解决我们甚至无法理解的问题的能力。
和其他预测一样,这些预测基于假设,其中最重要的是人工智能模型和应用将继续以指数级进步,就像过去几年一样。因此,虽然有可能,但不能保证会继续以指数级进步,尤其是因为这些模型的扩展可能已经达到了收益递减的阶段。
并非所有人都认同这些预测。艾伦人工智能研究所首席执行官阿里·法哈迪在接受《纽约时报》采访时说:“我支持预测和展望,但这个(AI 2027)预测似乎没有科学证据的支持,也没有反映人工智能领域的发展现实。”
然而,有些人认为这种演变是可能的。Anthropic联合创始人杰克·克拉克在他的《Import AI》通讯中写道,AI 2027是“迄今为止对‘生活在指数增长中’可能是什么样子的最佳描述”。他补充说,这是一个“技术敏锐的未来几年人工智能发展的叙述”。
这一时间表也与Anthropic首席执行官达里奥·阿莫迪提出的观点一致,他说几乎在所有方面都能超越人类的AI将在接下来的两到三年内出现。此外,Google DeepMind在一篇新的研究论文中表示,AGI可能在2030年左右合理实现。
巨大的加速:前所未有的变革
这似乎是一个有利的时机。历史上也有类似这样的时刻,包括印刷机的发明或电力的普及。然而,那些进步需要许多年才能产生重大影响。AGI的到来感觉与众不同,甚至可能令人恐惧,特别是如果它迫在眉睫的话。
《AI 2027》描述了一种情形,由于与人类价值观的不一致,超级智能AI摧毁了人类。如果他们的预测正确,那么对人类而言,最大的风险可能就在你下次智能手机升级的同一规划范围内。至于谷歌DeepMind的论文,它指出人类灭绝可能是AGI的一个可能结果,尽管在他们看来可能性不大。
观念的转变需要时间,直到人们被压倒性的证据说服。这是托马斯·库恩的《科学革命的结构》一书的重要启示。库恩提醒我们,世界观不会一夜之间转变,直到突然转变。而在人工智能方面,这种转变可能已经开始了。
未来即将到来
在大型语言模型(LLMs)和ChatGPT出现之前,AGI的中位时间预测比现在要长得多。专家和预测市场的共识将AGI的中位预计到达时间放在了2058年左右。在2023年之前,被称为“人工智能之父”的杰弗里·欣顿——图灵奖得主——认为AGI距离我们“还有30到50年甚至更久”。然而,LLMs展示的进步让他改变了想法,并说它可能在2028年就实现了。
如果AGI在未来几年内出现并很快被ASI跟随,这对人类将有许多深远的影响。在《财富》杂志上,杰里米·卡恩写道,如果AGI在未来几年内到来,“确实可能导致大量工作流失,因为许多组织都会被诱惑去自动化角色。”
两年的AGI跑道不足以让个人和企业适应。客户服务、内容创作、编程和数据分析等行业可能会在重新培训基础设施能够扩展之前经历剧烈的动荡。如果在这个时间段内发生经济衰退,这种压力只会加剧,因为公司在减少工资成本的同时经常用自动化替代人员。
即使AGI不会导致广泛的失业或物种灭绝,也会有其他严重的后果。自从理性时代以来,人类的存在一直建立在一个信念之上,即我们之所以重要是因为我们会思考。这种认为思考定义了我们存在的信念有着深厚的哲学根源。正是勒内·笛卡尔,在1637年写下了现在著名的短语:“Je pense, donc je suis”(“我思故我在”)。后来他将其翻译成拉丁文:“Cogito, ergo sum”。通过这样做,他提出了在个体思维行为中可以找到确定性的观点。即使他的感官受到欺骗,或者被他人误导,仅仅想到这一点就证明了他的存在。
在这种观点下,自我扎根于认知。这是一个当时革命性的想法,并催生了启蒙运动的人道主义、科学方法,最终形成了现代民主和个人权利。作为思考者的人类成为了现代社会的核心人物。
这引发了一个深刻的问题:如果机器现在能够思考,或者看起来能够思考,并且我们将我们的思考外包给AI,这对现代自我概念意味着什么?
最近由404 Media报道的一项研究探讨了这个困境。研究发现,当人们严重依赖生成式AI进行工作时,他们会减少批判性思考,随着时间的推移,这可能导致“应该保留的认知能力的退化”。
我们接下来该怎么办?
如果AGI在未来几年内——或者不久之后——到来,我们必须迅速应对它的影响,不仅是为了工作和安全,也是为了我们是谁。同时,我们也必须承认它具有加速发现、减少痛苦和以前所未有的方式扩展人类能力的巨大潜力。例如,阿莫迪曾说过,“强大的AI”将使100年的生物研究及其好处,包括改善医疗保健,压缩到5到10年内。
《AI 2027》中的预测可能是正确的,也可能不是,但它们是合理的且发人深省的。这种合理性就足够了。作为有行动能力的人类,作为公司、政府和社会的一员,我们现在必须采取行动为可能到来的事情做好准备。
对企业而言,这意味着投资于技术AI安全研究和组织韧性,创造整合AI能力同时放大人类优势的角色。对于政府而言,这意味着加速制定监管框架,以解决如模型评估等即时问题以及长期的生存风险。对于个人而言,这意味着拥抱专注于独特人类技能的持续学习,包括创造力、情商和复杂判断力,同时发展与AI工具健康的协作关系,这些工具不会削弱我们的自主权。
关于遥远未来的抽象讨论时代已经结束;迫切需要为近期的转型做具体准备。我们的未来不会只由算法书写。它将由我们今天的选择和坚持的价值观所塑造。
加里·格罗斯曼是爱德曼科技业务的执行副总裁兼爱德曼AI卓越中心的全球负责人。VB日报的商业用例每日洞察如果你想给老板留下深刻印象,VB日报可以帮助你做到。我们为你提供公司如何利用生成式AI的内部信息,从监管变化到实际部署,以便你能分享见解以实现最大回报。立即订阅阅读我们的隐私政策感谢订阅。查看更多VB新闻通讯。发生错误。
(以上内容均由Ai生成)