Iddo Gefen:人脑不像 AI 那样学习、思考或回忆。拥抱差异
快速阅读: 据《双城先锋出版社》最新报道,作者指出,将大脑比作人工智能是危险的错误,会误导我们对自身认知的理解。这种比喻忽视了人类情感、动机和创造力等关键因素。
最近,英伟达创始人黄仁勋表示:“真正令人惊叹的是,你编程人工智能的方式,就像你编程一个人的方式一样。” OpenAI联合创始人、人工智能革命的主要人物之一伊利亚·苏茨克维也表示,人工智能很快就能做人类能做的所有事情,因为“大脑是一种生物计算机系统”。我是一名认知神经科学领域的研究者,我认为他们犯了极其危险的错误。最大的威胁不是这些比喻让我们对人工智能如何工作感到困惑,而是它们误导了我们对自己大脑的理解。
在过去的科技革命中,科学家以及流行文化倾向于认为人类大脑可以被理解为一种又一种新机器的类比:钟表、交换机、计算机。最新的错误比喻是我们的大脑像人工智能系统一样。在过去两年里,我在神经科学领域及更广泛的会议、课程和对话中看到了这种转变。“训练”、“微调”和“优化”等词语经常用来描述人类行为。但我们并不是以人工智能那样的方式来训练、微调或优化的。而且这些不准确的比喻会造成真正的伤害。
17世纪将心灵视为“白板说”的想法,把儿童想象成完全由外部影响塑造的空白表面。这导致了严格的教育体系,试图消除神经多样性儿童(如自闭症、多动症或阅读障碍儿童)之间的差异,而不是提供个性化的支持。同样,20世纪初的行为主义心理学提出的“黑箱”模型声称只有可见的行为才重要。因此,心理健康护理往往侧重于管理症状,而不是理解其情感或生物学原因。
现在,随着我们开始看到自己像人工智能的样子,出现了新的错误方法。例如,近年来开发的数字教育工具会根据孩子的回答调整课程和问题,理论上让学生成为一个最佳学习状态。这是深受人工智能模型训练方式的启发。这种适应性方法可以产生令人印象深刻的结果,但它忽略了诸如动机或热情等难以衡量的因素。
想象两个孩子在智能应用程序的帮助下学习钢琴,该程序会根据他们的技能变化进行调整。一个很快学会了完美演奏,但讨厌每一次练习。另一个总是犯错,但享受每一分钟。仅根据我们应用于人工智能模型的标准来判断,我们会说完美演奏的孩子表现得更好。但教育孩子与训练人工智能算法截然不同。这种简单的评估不会考虑到第一个学生的痛苦或第二个孩子的快乐。
这些因素很重要;很可能十年后仍然弹钢琴的人就是那个玩得开心的孩子——而且他们可能甚至会成为更好的、更有创造力的音乐家,因为他们喜欢这个活动,包括错误在内。
这种适应性方法可以产生令人印象深刻的结果,但它忽略了诸如动机或热情等难以衡量的因素。想象两个孩子在智能应用程序的帮助下学习钢琴,该程序会根据他们的技能变化进行调整。一个很快学会了完美演奏,但讨厌每一次练习。另一个总是犯错,但享受每一分钟。仅根据我们应用于人工智能模型的标准来判断,我们会说完美演奏的孩子表现得更好。
我确信人工智能在学习方面是不可避免的,并且有可能带来积极的变革,但如果我们将学生仅仅以“训练”和“微调”的方式进行评估,我们将重复过去只重视产出而忽视体验的错误。
我看到这种情况在大学生中正在发生,他们第一次相信可以通过完全外包学习过程来实现最佳测量结果。许多学生在过去两年中使用了人工智能工具(有些课程允许使用,有些不允许),现在依赖它们来提高效率,常常以牺牲反思和深入的理解为代价。他们使用人工智能作为帮助他们写出好文章的工具,但在许多情况下,这一过程与独立思考能力或发现激发学生好奇心的东西几乎没有联系。
我确信人工智能在学习方面是不可避免的,并且有可能带来积极的变革,但如果我们将学生仅仅以“训练”和“微调”的方式进行评估,我们将重复过去只重视产出而忽视体验的错误。
如果我们继续在这种“大脑即人工智能”的框架内思考,我们也可能会失去那些导致科学和艺术重大突破的关键思维方式。这些成就并非来自识别熟悉的模式,而是通过混乱和偶然的失误打破它们。
亚历山大·弗莱明偶然将培养皿留在外面,注意到其中生长的霉菌杀死周围细菌时发现了青霉素。这是一个杂乱研究人员的幸运错误,最终拯救了数亿人的生命。这种混乱不仅仅对古怪的科学家重要。它对每个大脑都很重要。
过去二十年神经科学中最有趣的发现之一是“默认模式网络”,这是一种在我们做白日梦、不专注于特定任务时变得活跃的大脑区域。这项网络还被发现参与回顾过去、想象和思考自己及他人。如果将这种走神的行为视为问题而非拥抱其作为核心人类特征,我们必然会建立在教育、心理健康和法律方面的有缺陷的系统。
不幸的是,将人工智能与人类思维混淆特别容易。微软在其官方网站上将生成式人工智能模型如ChatGPT描述为“镜像人类表达,重新定义我们与技术的关系”的工具。而OpenAI首席执行官萨姆·奥特曼最近强调了他最喜欢的ChatGPT新功能之一“记忆”。这个功能允许系统在对话中保留并回忆个人细节。例如,如果你问ChatGPT去哪吃饭,它可能会提醒你几个月前提到过想尝试的一家泰国餐厅。
“并不是有一天你把你的大脑插进去,”奥特曼解释道,“但……它会了解你,它会成为你的延伸。”“记忆”将是自身延伸的说法再次是一个错误的比喻——使我们误解新技术和我们自己的头脑。
与人类记忆不同,人类记忆是进化出来的,会遗忘、更新和重塑基于各种因素的记忆,而人工智能的记忆可以设计成存储信息时具有较少的失真或遗忘。一个人的生活如果将记忆外包给一个几乎记得一切的系统,这不是自我延伸;它违背了使我们成为人类的机制。
这将标志着我们在行为、理解和决策方式上的转变。这可能从选择一家餐厅这样的小事开始,但很快就会扩展到更大的决定,比如选择不同的职业道路或选择不同的伴侣,因为我们大脑可能出于某种原因已经清除了一些连接和背景信息,而人工智能模型可以揭示这些信息。
“记忆”将是自身延伸的说法再次是一个错误的比喻——使我们误解新技术和我们自己的头脑。与人类记忆不同,人类记忆是进化出来的,会遗忘、更新和重塑基于各种因素的记忆,而人工智能的记忆可以设计成存储信息时具有较少的失真或遗忘。
这种外包可能很诱人,因为这项技术对我们来说看起来很像人类,但人工智能学习、理解和看世界的方式从根本上不同,它不像我们那样真正经历痛苦、爱或好奇。
这种持续混淆的后果可能是灾难性的——不是因为人工智能本身有害,而是因为我们没有将其塑造成一种补充我们人类思维的工具,而是让它按照自己的形象重塑我们。
伊多·盖芬是哥伦比亚大学认知神经科学博士候选人,小说《莉莉恩布姆夫人的云工厂》的作者。他的Substack通讯“神经故事”将神经科学见解与人类行为联系起来。他是《洛杉矶时报》的专栏作家。
(以上内容均由Ai生成)