TechKnow:没有吸取教训
快速阅读: 《班加罗尔镜报》消息,人工智能系统如ChatGPT并不像人类那样学习。它们通过分析大量数据中的模式进行“学习”,而非具体体验。大多数AI系统在构建后不再继续学习,且不具备长期记忆。这意味着它们可能提供过时信息,不会记住之前的对话内容。尽管如此,开发者已采取措施,如连接互联网和个性化回复,以改善用户体验。
人工智能并不真正“学习”——了解这一点将帮助你更负责任地使用它。如果我们告诉你人工智能(AI)系统,如ChatGPT,实际上并没有在学习,你可能会感到惊讶。甚至许多AI系统自己也会自信地声称它们是学习系统。许多报告和学术论文也这么说。但这源于一种误解——或者说是我们对AI中“学习”的理解过于宽松。
准确理解AI系统何时以及如何学习(以及何时不学习)会让你成为更高效和负责任的AI使用者。不像人类那样,关于AI的许多误解源自于用某些应用于人类时具有特定含义的词汇,比如“学习”。我们知道人类是如何学习的,因为我们一直在这样做。我们有经验;我们做某事失败了;我们遇到新事物;我们读到令人惊讶的内容;因此我们记住、更新或改变做事的方式。这并不是AI系统的“学习”方式。
主要有两个不同之处。首先,AI系统不会从具体的体验中学习,这些体验使我们能够像人类一样理解事物。相反,它们通过编码大量数据中的模式来“学习”——仅使用数学方法。这发生在训练过程中,当它们被构建时。以大型语言模型为例,如GPT-4,这是支持ChatGPT的技术。简单来说,它通过编码单词(实际上是标记)之间的数学关系来学习,目的是预测哪些文本与其他文本相关联。这些关系是从大量的数据中提取并编码在计算密集型的训练阶段中的。这种“学习”方式显然与人类的学习方式大相径庭。它的一个缺点在于,AI经常难以掌握人类通过生活自然获得的常识知识。但AI训练非常强大,因为大型语言模型已经“阅读”了远远超出人类理解范围的文本量。这就是为什么这些系统在基于语言的任务上如此有用,例如写作、总结、编程或对话。
学习在此停止
大多数人们使用的AI系统,如ChatGPT,在构建完成后也不会继续学习。你可以说AI系统根本不学习——训练只是它们构建的方式,而不是它们工作的方式。GPT中的“P”代表“预训练”。技术上讲,像ChatGPT这样的AI系统只在开发过程中进行“训练时间学习”,而不在“运行时间学习”。确实存在边运行边学习的系统。但它们仅限于单一任务,例如你的Netflix算法推荐观看内容。一旦完成,就结束了。所谓“预训练”意味着大型语言模型总是固定在某个时间点。对其训练数据的任何更新都需要高昂的成本重新训练,或者至少进行所谓的微调以进行较小调整。这意味着ChatGPT不会持续根据你的提示学习。而且,开箱即用的大型语言模型不会记住任何信息。它只在其记忆中保留单个聊天会话中发生的事情。可以通过存储用户信息等方式绕过这个问题,但这是在应用程序层面实现的。
这意味着什么?首先,要意识到你从AI助手那里得到的是什么。从文本数据中学习意味着系统如ChatGPT是语言模型,而不是知识模型。虽然通过数学训练过程编码的知识量确实令人惊叹,但当被问及知识问题时,这些模型并不总是可靠的。它们真正的强项在于处理语言。不要惊讶于回复中包含过时的信息,因为它们被定格在某个时间点,或者ChatGPT不会记住你告诉它的任何事实。好消息是AI开发者已经想出了一些聪明的解决办法。例如,一些版本的ChatGPT现在连接到了互联网。为了提供更及时的信息,它们可能会执行网络搜索并将结果插入到你的提示中再生成回复。另一种解决办法是AI系统现在可以记住关于你的事情以个性化它们的回复。让AI辅助你。但确保你逐条提示进行学习。
(作者:凯·里默 和 桑德拉·彼得,悉尼大学,《对话》杂志)
(以上内容均由Ai生成)