新的 ChatGPT 测试成功并不意味着 AI 现在和人类一样聪明
快速阅读: 据《宇宙》最新报道,研究表明,GPT-4.5在图灵测试中被误认为人类的比例高达73%,但研究者强调这仅表明其模仿人类行为的能力,不代表其拥有与人类相当的智能。图灵测试的有效性也一直存疑。
过去一周,出现了几则关于人工智能聊天机器人正式通过图灵测试的新闻标题。这些报道基于加州大学圣地亚哥分校的两位研究人员近期发布的一项预印本研究,其中四个大型语言模型(LLMs)参与了图灵测试。其中一个模型——OpenAI的GPT-4.5——在超过70%的时间内被认为与人类无法区分。图灵测试已成为衡量机器智能的终极指标,但其有效性却一直存在争议。
这项研究由认知科学家卡梅隆·琼斯和本杰明·伯根于三月份发布,但尚未经过同行评审。他们测试了四个LLMs:ELIZA、GPT-4o、LLaMa-3.1-405B 和 GPT-4.5。测试采用了一种模拟图灵测试的方式,参与者需要在五分钟内与两名证人同时进行对话,其中一名是人类,另一名是LLM。最终结果显示,73%的参与者误以为GPT-4.5是人类,而LLaMa-3.1-405B被误判的概率为56%。另外两个模型——ELIZA和GPT-4o——分别仅有23%和21%的概率被误判为人。
图灵测试的起源与争议
图灵测试的概念最早由英国数学家兼计算机科学家艾伦·图灵于1948年的论文《智能机器》中提出。起初,这个测试被设计为一个三人下国际象棋的实验,其中提到的假想机器被称为纸机,两位玩家分别为男性和女性。在1950年出版的《计算机器与智能》一书中,图灵重新定义了这一测试,称之为“模仿游戏”。他认为,这种测试可以用来衡量机器是否能够表现出与人类相当的智能行为。
图灵测试的争议在于其是否能够真正反映机器的智能水平。一些研究者认为,能够通过测试的能力是一种行为表现,而非真正的智能。此外,大脑并不是简单的机器,因此图灵关于大脑可以完全机械解释的观点受到了质疑。同时,由于计算机与人类的内部运作机制不同,直接比较两者的行为可能并不公平。此外,仅仅通过一种行为来判断智能是否足够全面也是值得商榷的。
ChatGPT的表现与局限性
尽管预印本文章声称GPT-4.5通过了图灵测试,但研究人员明确表示,这并不能说明LLM具备与人类相同的智能。相反,这只是展示了模型模仿人类行为的能力,是对图灵测试初衷的一种致敬。需要注意的是,这项研究的条件存在一定问题。例如,五分钟的测试时间相对较短,且每个LLM都被要求扮演特定角色,但具体细节及其对结果的影响尚不明确。
总的来说,目前可以肯定的是,GPT-4.5并不像人类那样聪明,尽管它确实有可能说服一些人相信它的智能程度接近人类。这项研究提醒我们,人工智能的进步虽然令人瞩目,但距离真正意义上的“智能”还有很长的路要走。
本文转载自《对话》杂志,遵循知识共享许可协议。阅读原文。原文最初由《宇宙》杂志发布。新的ChatGPT测试成功并不意味着AI现在和人类一样聪明。
(以上内容均由Ai生成)