ChatGPT等人机对话模型为何难以模仿人类交流
快速阅读: 挪威科技大学研究发现,大型语言模型在模仿人类对话时存在局限,如过度模仿、填充词使用不当及对话结构处理不佳,导致多数人能区分真伪。
挪威科技大学(NTNU)的研究揭示了大型语言模型在模仿人类对话时的局限性。尽管这些模型在许多方面非常有用,但它们在模仿人类自然对话的能力上仍有不足。
研究者卢卡斯·比埃蒂(Lucas Bietti)来自NTNU的心理学系,他指出:“大型语言模型的说话方式与人类不同。”比埃蒂是最近发表的一项研究文章的共同作者。在这项研究中,研究团队测试了包括ChatGPT-4、Claude Sonnet 3.5、Vicuna和Wayfarer在内的多个大型语言模型。
首先,他们将真实的人类电话对话录音与由大型语言模型生成的模拟对话进行了比较。随后,研究者检查了人们能否区分这两种对话。结果显示,大多数人并未被这些模型所迷惑。那么,这些语言模型在哪些地方出错了呢?
**过度模仿**
当人们交谈时,会轻微地调整自己的词汇和对话内容以适应对方,这种模仿通常是微妙的。然而,大型语言模型往往模仿得过于明显。“大型语言模型在模仿上显得过于积极,这种过度的模仿行为很容易被人察觉。”比埃蒂说道。这被称为“过度对齐”。
**填充词使用不当**
在日常对话中,人们通常会使用一些称为话语标记的小词,如“所以”、“嗯”、“像”、“总之”。这些词语不仅有助于构建对话的结构,还能传达兴趣、归属感、态度或意义。然而,语言模型在使用这些小词时经常出错,这进一步暴露了它们的非人性质。
**对话开头和结尾的特点**
人们在开始对话时通常不会直奔主题,而是先进行一些寒暄,比如“嘿”、“你好吗?”或者“哦,真巧遇到你!”这种从寒暄到实质性话题的过渡对人类来说几乎是自动的,无需明确指出。而大型语言模型在模仿这一过程时显得尤为困难。同样,在对话结束时,人们通常不会在信息传递完毕后立即终止对话,而是会说“回头聊”或“再见”。语言模型在这方面也表现不佳。
尽管存在这些问题,但随着技术的发展,未来大型语言模型在模仿人类对话方面的能力可能会有所提高。“大型语言模型的进步很可能会缩小人类对话与人工智能对话之间的差距,但关键差异可能仍然存在。”比埃蒂表示。
目前,大型语言模型尚未达到能够持续欺骗人类的程度。至少,不是每次都能成功。
挪威科技大学(NTNU)发布更多内容:
研究人员指出,外太空存在垃圾问题。
这些研究者希望量子计算机能够正常工作。
如果你能听到邻居打鼾,说明你居住的建筑存在问题。
捕食星星的蜘蛛,以及捕捉它们的研究人员。
你知道吗?大脑中蓝色的器官可以帮助你随着年龄增长而更好地生活。
研究人员对海洋中巨大的碳含量感到惊讶。
(以上内容均由Ai生成)