AI 并没有真正“学习”——知道为什么会帮助你更负责任地使用它
快速阅读: 《经济时报》消息,人工智能系统如ChatGPT通过分析大量数据来“学习”,而非像人类般经历学习。它们在训练阶段编码文本间的数学关系,但一旦训练完成便不再学习。这类系统擅长语言任务,但可能给出过时信息,且不记得用户提供的事实。开发者通过连接网络搜索或存储用户信息来优化AI回应,但AI本身不会实时更新或学习。了解这一点,用户应学会有效提示并与AI互动。
首先,人工智能系统不会从具体的经历中学习,从而像人类一样理解事物。相反,它们通过从大量数据中编码模式来“学习”——仅使用数学方法。这发生在构建过程中。例如,GPT-4就是支持ChatGPT的技术,它是一种大型语言模型。简而言之,它通过编码单词(实际上是标记)之间的数学关系来学习,目的是预测哪些文本与其他文本相关联。这些关系是在计算密集型的训练阶段从大量数据中提取并编码的。这种“学习”形式显然与人类的学习方式非常不同。人工智能在这方面确实存在不足,因为它经常难以掌握人类通过日常生活自然获得的基本常识知识。但是,人工智能的训练也非常强大,因为大型语言模型已经“阅读”了远远超出人类理解范围的文本。这就是为什么这些系统在语言任务上如此有用,如写作、总结、编程或对话。这些系统不像我们那样学习,但以巨大的规模进行学习,这使得它们在擅长的领域成为全能选手。
如果你被告知人工智能(人工智能)系统,例如ChatGPT,实际上并不学习,你会感到惊讶吗?我们与之交谈的人听到这个消息时都非常惊讶。人工智能并不像人类那样学习。如果有人告诉你,人工智能系统,比如ChatGPT,实际上并不学习,你可能会感到惊讶。我们与许多人交流时,他们对此感到非常震惊。关于人工智能的许多误解源于使用了在应用于人类时具有特定含义的词汇,比如学习。我们知道人类是如何学习的,因为我们一直在学习。我们尝试过失败;我们遇到新事物;我们读到令人惊讶的内容;因此我们记住,我们更新或改变做事的方法。
一旦训练完成,学习也就停止了。大多数人们使用的AI系统,比如ChatGPT,在构建后也不会继续学习。你可以说AI系统根本不学习——训练只是它们构建的方式,而不是它们工作的方式。GPT中的“P”字面意思是“预训练”。从技术角度讲,像ChatGPT这样的AI系统只参与“训练时学习”,作为其开发的一部分,而不是“运行时学习”。确实存在边运行边学习的系统。但它们通常局限于单一任务,例如你的Netflix算法推荐观看的内容。一旦完成,就完成了,正如俗语所说。所谓的“预训练”意味着大型语言模型总是停留在时间点上。任何对其训练数据的更新都需要高昂的重新训练成本,或者至少是所谓的微调以进行较小的调整。这意味着ChatGPT不会根据你的持续提示进行学习。开箱即用,大型语言模型不会记住任何东西。它只能在其记忆中保留单个聊天会话中发生的事情。关闭窗口或开始新的会话,每次都会重置。虽然有一些方法可以绕过这个问题,例如存储关于用户的信息,但这是在应用层面实现的;AI模型本身不会学习且保持不变,直到重新训练(稍后会详细介绍)。
这对用户意味着什么?首先,要清楚你从AI助手那里得到了什么。从文本数据中学习意味着像ChatGPT这样的系统是语言模型,而不是知识模型。尽管通过数学训练过程编码了大量的知识令人惊叹,但当被问及知识问题时,这些模型并不总是可靠的。它们真正的强项在于处理语言。不要惊讶于回复中包含过时的信息,因为它们被冻结在时间点上,或者ChatGPT不记得你告诉它的任何事实。好消息是AI开发者已经找到了一些巧妙的解决办法。例如,一些版本的ChatGPT现在连接到互联网。为了向你提供更及时的信息,它们可能会执行网络搜索并将结果插入到你的提示中,然后生成回复。另一个解决办法是AI系统现在可以记住关于你的信息以个性化其回复。但这是一种技巧。并不是大型语言模型本身实时学习或更新自己。关于你的信息存储在一个单独的数据库中,并在每次插入提示时以不可见的方式添加。但这仍然意味着你无法纠正模型中的错误(或教它一个事实),而模型会记住这些信息以纠正其他用户的答案。模型可以在一定程度上进行个性化,但它仍然不会实时学习。
理解AI如何以及为何不学习的用户会投入更多精力开发有效的提示策略,并将AI视为需要不断检查的助手。让AI帮助你,但确保你逐个提示地进行学习。
(以上内容均由Ai生成)