专家呼吁废除图灵测试,聚焦AI安全与实用能力评估
快速阅读: 几位研究者在伦敦皇家学会活动中提出,图灵测试应被废除,转而评估AI安全性和具体能力,而非追求通用人工智能(AGI)。会议讨论了AI模型的局限性及其在特定任务上的专长。
今日最佳的人工智能(AI)模型顺利通过了图灵测试——这是一个著名的思维实验,旨在探讨计算机能否通过文字互动来冒充人类。一些人认为需要升级这一测试,以作为衡量向通用人工智能(AGI)进步的标准——AGI是一个模糊的概念,许多科技公司用它来指代具备与任何人类认知能力相匹敌的资源和灵活性的AI系统。然而,在10月2日伦敦皇家学会举办的一次活动上,几位研究者表示,图灵测试应该被彻底废除,开发者应将重点放在评估AI的安全性和构建对公众有益的具体能力上。
“我们应该确定想要什么样的AI,并针对这些特性进行测试,”英国布莱顿苏塞克斯大学的神经科学家安尼尔·赛思说。他补充道:“专注于向AGI迈进的过程中,我认为我们极大地限制了关于可能希望拥有的系统类型——更重要的是,我们确实不希望在社会中出现的系统类型的想象力。”
此次活动是为了纪念英国数学家艾伦·图灵发表描述该测试的开创性论文75周年。该测试被称为模仿游戏,旨在解决机器是否能思考这一哲学难题。测试涉及一系列简短的文字对话,由裁判与人类或计算机进行。为了获胜,机器必须说服裁判它是人类。
纽约大学的神经科学家加里·马库斯在主旨演讲中提到:“现在,AGI可能并不是正确的目标,至少目前不是。”他指出,一些最优秀的AI模型是高度专业化的,比如谷歌DeepMind的蛋白质结构预测器AlphaFold。“它只做一件事。它不会尝试写十四行诗,”他说。
图灵的这个有趣的思想实验经常被用作衡量机器智能的标准,但它从未被设计成一个严肃或实用的测试,英国剑桥大学研究图灵作品的文学研究员莎拉·迪伦说道。当今一些最强大的AI系统是大型语言模型(LLM)的改进版,它们基于从互联网数据学习到的关联来预测文本。今年3月,研究人员在一个版本的图灵测试中测试了四个聊天机器人,发现表现最好的模型通过了测试。
然而,多位研究者在会上表示,尽管聊天机器人能够逼真地模仿人类语言,但这并不意味着它们能够理解。马库斯举例说,当面对不常见的问题时,某些模型会遇到很多困难,比如无法正确标记大象的身体部位,或者只能将时钟指针画在十点和两点的位置。因此,如果受到了解其弱点的科学家挑战,这些模型仍可能无法通过图灵测试。
尽管如此,基于LLM的系统在广泛领域的快速改进,尤其是在推理任务上的表现,引发了关于机器是否会很快达到人类水平的认知测试成绩的猜测。为了追踪AI不断增长的能力,并捕捉非语言技能,研究者们一直在努力构建更难的测试。其中最新的一项是第二版的抽象与推理语料库(ARC-AGI-2),旨在评估AI适应新问题的效率。然而,对于实现AGI的任何单一基准,研究者之间尚未达成共识。
(以上内容均由Ai生成)