重新审视琳达问题,仿佛现实很重要
快速阅读: 据《心灵很重要》最新报道,本文批评了对人类认知偏见的传统看法,认为人类并非如想象般愚蠢。作者通过“琳达问题”反驳了卡尼曼的观点,指出人们并非真正存在“联合偏见”,而是将问题视为故事而非数学题。文章还质疑人工智能优于人类的主张,强调现实世界中的复杂性和不确定性使机器难以匹敌人类的生态理性。
昨天,我们探讨了著名的“琳达问题”。

正如我之前提到的,最常见的答案(由85%至90%的大学生在重点大学给出)是选项2。根据概率论,这是不对的,因为事件A和B同时发生的概率不可能大于事件A或B单独发生的概率。然而,诺贝尔经济学家丹尼尔·卡尼曼(1934-2024)和他的合作伙伴阿莫斯·特沃斯基(1937-1996)惊讶地注意到,即使明确指出这个错误,多数参与者依然坚持错误的答案。但这并不是说90%的受过教育的人存在“联合偏见”,而是大多数人——90%!——把这段描述当作一个故事,而非数学题。他们依据提供的信息思考可能性,而不是遵循公理理性或概率论。
那么,为什么他们应该引用概率中的“联合法则”呢?可能性更多与我们的期望内容相关,而非严格的计算结果。正如经济学家约翰·凯和默文·金所说:
正如我之前提到的,最常见的答案(由85%至90%的大学生在重点大学给出)是选项2。根据概率论,这是不对的,因为事件A和B同时发生的概率不能大于事件A或B单独发生的概率。然而,诺贝尔经济学家丹尼尔·卡尼曼(1934-2024)和他的合作伙伴阿莫斯·特沃斯基(1937-1996)惊讶地注意到,即便指出了这个错误,多数参与者依然犯错。
凯和金的分析在我看来完全正确,我们可以补充他们未讨论的一个证据,这在语言学和哲学中被称为“格赖斯准则”。它可以用“合作原则”来概括:格赖斯的合作原则应用于琳达的问题时,意味着提供琳达积极参与歧视和社会正义问题的信息是有意义的。读者自然会期望这一额外描述进入他们对她的可能性判断中。鉴于这两个选项在如何呈现附加信息上的差异,参与者自然会认为第二个选项是对琳达生活更完整、更合理的描述。如果没有人考虑进行概率计算——并且他们也没有被要求这样做——那么不公平地指责他们是“联合偏见”就显得不妥。
类似的观点同样适用于昨日第一部分提到的诸多其他偏见。当面对“大世界”或换句话说现实的或“真实世界”的问题时,它们也假定了一些不现实的标准,比如公理理性。面对这样的问题,人们不仅不依赖形式化的数学推理,而且也无法依赖它,因为这些问题无法简化为一套具有已知或可发现结果的规则或原则。
如此看来,四十年的偏见研究以及得出人类天生愚蠢的结论显得毫无道理。

公平地说,认知偏差的研究能够揭示我们如何思考并作出判断。但通过假定像公理理性这样的标准,偏见研究者往往忽略了我们为何使用启发式或捷径而非计算的真实原因,尤其是在现实的或“大世界”里,这个世界充满“未知的未知数”。
凯和金用一个术语描述我们在高度不确定性世界中的“摸索前行”方式:进化或生态理性。他们的生态理性非常契合我们身处的高度不确定性的现实世界。在这里,结果要么根本无法预见——例如纳西姆·尼古拉斯·塔勒布的“黑天鹅”——要么我们理解可能结果的范围,但进一步推理或数据收集不会改变结果。例如,在卡尼曼和特沃斯基的世界里,损失厌恶是一种偏见,但如果是在繁忙街道穿行或在非洲大草原行走,它则相当实用。正如他们所说,“避免重大损失的倾向是一种有用的特质。”不过并非总是如此。在商业和体育领域,风险承受力也很有用。事实上,洞察力和创造力不属于公理理性范畴,因为它们本质上无法预测。因此可以推断,按照公理理性的标准,洞察力和创造力的例子显得极为不合逻辑:“你凭什么相信你可以‘随心所欲地改变现实’,乔布斯先生?”实际上,可以很好地证明亚当·斯密式的创业精神和资本主义正是基于一系列认知偏差。像史蒂夫·乔布斯或理查德·布兰森这样的商业传奇人物不仅在追求商业梦想时冒巨大风险,在个人生活中也是如此。布兰森据说通过在赌桌豪赌开启了商业帝国。这种行为,通常而言(按概率),是愚蠢的。但更广义的观点是,像布兰森这样的人往往有着巨大的(即非理性的)风险承受力,而这一事实成为了他们成功的一个因素。我们不禁想知道,爱因斯坦作为一名专利局职员过着舒适但绝非富裕的生活,当他选择用未经检验的理论挑战整个现代牛顿物理学体系时,他是否完全理性。如果没有这些偏差,我们将何去何从?如果我们遵从卡尼曼和特沃斯基的劝诫去(公理化地)理性行事,我们将何去何从——如果还能去到任何地方的话?
这就引出人工智能的话题。
**如何人工智能爱好者利用“自然愚蠢”来支持机器智能的主张**
各类技术未来主义者,尤其是那些坚信即将到来的“奇点”或超级智能的真正信徒,最肆意地攻击人类思维,称其为无可救药的偏见、缓慢和愚蠢。难怪他们会如此轻易地吹嘘即将来临的机器智能——因为他们早已降低标准。
凯和金指出,相信机器智能的前提在于认为极端不确定性能够被驯服;它可以以某种方式转化为有已知答案的难题。呼应我自己的用词,他们将这种假设描述为一种将谜团转化为有已知解决方案的难题的愿望:人工智能爱好者利用“自然愚蠢”来支持机器智能的主张
然而,人工智能圈的人完全搞错了方向。不是说人工智能会将谜团转化为可以解决的难题,从而确立机器智能优于我们自身的优越性。不是的。正如凯和金所强调的,谜团无法转化为难题。这意味着机器智能在展示我们在现实世界中珍视的那种智慧方面处于极大的劣势。这一点对理解人工智能的缺陷并思考人工智能的未来至关重要。
人工智能爱好者利用“自然愚蠢”来支持机器智能的主张
谜团的特点是提问:“这里发生了什么?”公理理性不足以“解答”一个谜团。我们需要的是洞见和溯因推理,而不是更多数据和更快的处理速度。我们需要找到一种方法,在缺乏可分配概率的情况下做出合理的推断和判断。计算机在这方面表现不佳。
由于谜团不能被视为难题,且解题策略通常不适合破解谜团,所以我们面临的是根深蒂固的人工愚蠢。语言模型或许已经证明大规模解题器可以在网络世界中将文字转化为智能输出,但在我们生活的现实世界中,网络空间中的文字是不够的。这就是为何自2016年起自动驾驶汽车一直停在红绿灯前。你无法用网络空间的技巧操控一堆金属和塑料在现实中行驶。
**小世界对比大世界**
凯和金再次正确地指出,小世界与大世界(或公理理性与生态理性,或谜题与谜团)构成了我们所说的不同的认识论空间。对于具有生态理性的(曾被称为认知偏差的)人类而言,小世界和大世界问题的不同认识论空间意味着它们在某种程度上是‘不可互换’的。
整个AI历史可以说是一次漫长且大多不成功的尝试,即将思维转化为一套可通过各种计算技术解决的谜题。没有人会去构建一个能够‘进行溯因推理’的AI,因为没有人真正知道如何做到这一点。
LLMs这样的大型归纳机器确实令人惊叹,我们可以用它来模拟一些人类认知能力的奇迹,至少能在网络空间生成词序列。这就是谜题思维,因为谜题(或小世界)的一个条件是更多信息揭示更多解决方案。或者:更多数据和计算能力意味着更好的模型。
AI领域的思想领袖很少承认这里更大的计划是我们早已知道无法实现的事情:从小世界到大世界的转换,反之亦然。AI行业更倾向于炫耀其在棋类游戏、深度伪造和文本生成方面的成功,而不是直面像罗茜机器人或完全自动驾驶汽车这样更为严峻的现实挑战。新闻中将会充满无尽的失败报道和愈发严重的问题。但他们在这里看到的是整个科学范式,支持人类是缓慢且低效的肉质计算机的观点。
我们如何得知?看看人们对琳达问题的非理性反应!看看所有的偏见!
凯和金对大世界(而非小世界)中的极端不确定性以及我们使用他们称之为进化或生态理性的更强大的思维方式的处理方式很重要。这揭穿了技术未来主义者傲慢且误导性的主张:“计算机迟早能做我们所能做的一切,并且做得更好。”
计算机将继续在其为之设计的小世界中进行计算。只要研究界继续轻视人类思维而不是理解它,我们将继续在琳达问题和其他愚蠢的测试中犯错。
**什么是“自然智能”?**
没人真正知道。AI未来主义者会声称它要么不存在,要么很快就会成为后视镜。一如既往,他们错了。
我们如何走出这个困境确实是一个饶有趣味的谜团。
**卡尼曼的最后一部著作**
我想以卡尼曼2022年出版的最后一部著作《噪声:人类判断之缺陷》(Little Brown Spark 2021)作为结尾,这本书是他与巴黎HEC商学院的奥利维尔·西博尼合著的。亚马逊页面突出了一段引述:“因此,人类判断可以被描述为一种以人脑为工具的测量。’这显然是错误的。”
并非针对卡尼曼,但他的最后论点似乎又是对生态理性的又一次重大误解。“噪声”在这里是一个统计学概念,指围绕目标的随机变异性。午餐前后法官对相同罪行判处不同刑罚的行为正在制造法律上的‘噪声’。但卡尼曼再次假设——实际上偷偷地引入——小世界,在这些小世界中不一致性可以被计算,噪声与信号的比例也有意义。
许多读者读完这本书后得出结论,与卡尼曼如出一辙,我们应该尽可能用人造算法代替人类做出判断,因为算法产生的噪声更少。然而,许多读了这本书的人也可能得出与卡尼曼如出一辙的结论,即人类判断应尽可能由算法取代。
如果我们要拥有任何值得争取的未来,人类需要走在前列。
注意:卡尼曼在他的2013年著作《思考,快与慢》(Farrar, Straus and Giroux)中描述了琳达问题。我遵循他在那本较新的作品中的描述。
以下是这篇两部分文章的第一部分:
**人类并没有那么偏见——机器也没有那么聪明。**
第一部分:在即将到来的关于AI的会议上,我将戳破那个特定的AI爱好者幻想。
通过“琳达问题”,丹尼尔·卡尼曼和阿莫斯·特沃斯基说服了几代人认为我们不理解概率。他们是错误的。
(以上内容均由Ai生成)