OpenAI 模型愚弄人们认为这是人类 73% 的交易所通过了图灵测试
快速阅读: 据《eWeek 系列》最新报道,加州大学研究显示,GPT-4.5在图灵测试中被认为人类的概率达73%,高于真实人类。尽管如此,有专家认为图灵测试并非衡量AI真正智能的标准,且斯坦福团队的设计可能未获图灵认可。
加州大学圣地亚哥分校的研究人员最近进行了一项测试,显示当要求GPT-4.5展现出类似人类的行为时,在73%的情况下被误认为是人类,从而成功通过了图灵测试。图灵测试由英国计算机科学家艾伦·图灵于1950年提出,旨在评估机器是否能够在与人类互动时表现出类似人类的智能。
最新研究表明,GPT-4.5在文本交流中比真实人类更能让对方相信自己是人。这一成果——“大型语言模型通过了图灵测试”——尚待同行评议。
我是人类吗?
该实验是在一个在线平台上开展的三方测试。近300名学生作为参与者被随机分配为裁判或两名“证人”之一,另一位“证人”是聊天机器人。两位证人需凭借发送的文字信息说服人类裁判他们为真人。然后裁判需要判断哪一位是真人。
另外三个AI程序也进行了测试:
Meta的LLaMa 3.1 405b,在测试中被认为是人类的频率为56%。
ELIZA,20世纪60年代的一个早期聊天机器人,在测试中被认为是人类的频率为23%。
GPT-4o,OpenAI的前一个模型GPT-4o,在测试中被认为是人类的频率为21%。
“在区分人类与GPT-4.5及LLaMa(带有人格设定)时,人们的准确率并不高于随机猜测,”加州大学圣地亚哥分校语言与认知实验室的研究员卡梅隆·琼斯在其关于此项工作的X帖文中总结道。“而且GPT-4.5实际上比普通人更常被视为人类!”
其他AI专家对这项研究有何看法?
一些研究人员并不认为这意味着该模型已经达到了或超越了人类能力,并具备了所谓的通用人工智能(AGI)。
在《科学》杂志上,新墨西哥州圣达菲研究所的AI学者梅兰妮·米切尔教授撰文指出,图灵测试并非衡量真正智能的标准,而是更多反映了人类的假设。即便AI在测试中的表现优异,“如同下棋般自然的语言流畅度并不能作为普遍智能的决定性证明,”米切尔写道。
她还引用了斯坦福大学2024年的新闻稿,提到斯坦福团队针对早期GPT 4模型的研究标志着“人工智能首次通过严格意义上的图灵测试”。米切尔指出,该团队所谓的图灵测试包括比较GPT-4在心理调查和交互游戏中行为与人类行为的统计数据。
但她补充说,该团队的设计“或许无法得到图灵的认可”。
欲了解更多信息,请访问我们姊妹网站TechRepublic的相关专题页面。
(以上内容均由Ai生成)