当 AI 学会说话时 – 它揭示了我们的信息
快速阅读: 据《研究动态》称,研究显示,人工智能能自发形成语法,模拟语言起源。尽管大型语言模型如ChatGPT表现优异,但其缺乏理解能力,可能带来误导。研究强调理解AI能力与局限对安全应用的重要性。
当人工智能学会说话——它揭示了什么
斯德哥尔摩大学新闻
语言是如何产生的?机器人真的能理解我们说的话吗?我们采访了斯德哥尔摩大学文化进化研究中心的研究员安娜·琼-安德,她利用人工智能来了解语法如何自发地形成,以及这对我们自身的智能有何启示。
人工智能揭示了语言的创造方式
语言是如何产生的?机器人真的能理解我们说的话吗?我们采访了斯德哥尔摩大学文化进化研究中心的研究员安娜·琼-安德,她利用人工智能来了解语法如何自发地形成,以及这对我们自身的智能有何启示。
语言学和哲学的一大谜团就是词语如何获得意义。在1990年代,布鲁塞尔VUB人工智能实验室的研究员卢克·斯特尔斯展示了自我导向的人工智能系统可以通过简单的互动发展出语言惯例。在所谓的“命名游戏”中,数字代理或机器人程序被要求通过命名物体进行互动。一个代理说出一个词,另一个指向一个物体,随着时间推移,稳定的语言惯例逐渐形成。这一实验展示了语言如何在一个群体中自发地组织形成——这是一个之前难以证明的见解。
图片提供:约翰·林德
– 在我们目前的研究中,我们基于这些见解,还测试了语法如何通过简单的学习机制自发形成。我们认为语法的演化是为了使语言更易于学习,因为人类在信息存储和处理能力上存在限制。我们也发现,如果我们创建了一个具有有限记忆的人工智能,并用文本喂养它并奖励其识别句子的能力,它会自发找到语法模式,”安娜·琼-安德说。
人工智能还通过机器学习重建了原型语言,为研究人员提供了新的工具来理解历史上的语言演变。
图片提供:约翰·林德
人工智能能给科学家带来惊喜吗?
当第一批大型语言模型,例如ChatGPT推出时,许多人惊讶于它们表现出的意想不到的语言能力。
– 看到它们即使不以人类的方式理解也能如此出色地生成语言真是令人着迷,”安娜·琼-安德说。
尽管大型语言模型可以生成看似智能的文本,但仍然存在明显的局限性。一个简单的例子是要求ChatGPT创建一个恰好包含十一个单词的句子。有时它可以成功,但通常句子要么太短要么太长。这表明大型语言模型不具备象征性和理解数值概念的能力,而这对于人类来说非常简单。
可能引发后果的误解
大型语言模型缺乏我们所说的理解能力,在研究和日常生活中都可能带来实际后果:
– 大型语言模型常常似乎‘懂’你的问题,但这可能是一种错觉,”安娜·琼-安德说。
大型语言模型缺乏我们所说的理解能力,在研究和日常生活中都可能带来实际后果:
这一点在大型语言模型被赋予需要精确规划或空间能力的任务时变得尤为明显。研究已经测试了大型语言模型在空间中规划路线的能力。表面上看,它们似乎能够胜任,但随着复杂性的增加,它们失败了。这提醒我们,AI生成语言的能力并不代表它能以与人类相同的方式理解世界。这对AI研究人员以及任何在日常生活中使用AI的人来说都是一个重要见解。另一个常见的误解是认为AI必须能够思考或有自由意志才能对人类构成威胁:
大型语言模型缺乏我们所说的理解能力,在研究和日常生活中都可能带来实际后果:
– 但AI可能以我们无法掌控的方式影响我们,而不需要像我们一样思考。例如,我的同事弗雷德里克·詹森,他在文化进化中心研究AI的社会后果,强调了AI如何控制我们在日常生活中看到的信息——这可能会在我们甚至没有注意到的情况下塑造我们的观点,”安娜·琼-安德说。
这对未来意味着什么?
AI将继续在人类认知和语言研究中发挥核心作用。同时,这项研究提醒我们,为了安全有效地使用这项技术,我们需要理解AI的能力和局限性。
– AI为我们提供了研究语言和智力的新方法,但我们需要区分不同类型的AI。大型语言模型可以生成类似人类的语言,但它们的功能方式在许多方面与人类不同。相反,当我们想要了解人类如何学习语言时,我们会构建更简单的具有较少特征的AI模型。这些模型帮助我们识别语言学习所需的基本机制——这是在具有数百万参数的复杂语言模型中无法辨别的。因此,我们的极简主义模型更有助于理解人类的认知和学习,”安娜·琼-安德说。
主题
数字化和人工智能 – 主题页面
语言、文学与文化 – 主题页面
更新日期:2025年4月14日
资料来源:人文学院
(以上内容均由Ai生成)