超越人类的科学
快速阅读: 《永旺杂志》消息,本文探讨了科学自动化场景的可能性,即人工智能全面接管科学研究。尽管这可能使人类失去对科学的主导权,但我们对理解世界的渴望仍会推动我们继续参与科学探索。人类与人工智能或将并行进行科学研究,各有侧重。
我们当今时代的科学本质上是计算性的。没有模型、模拟、统计分析、数据存储等,我们对世界的认识将会增长得慢得多。几十年来,我们的基本人类好奇心在一定程度上被硅和软件所满足。已故哲学家保罗·汉弗莱斯将此称为科学的“混合场景”:其中科学过程的一部分被计算机承担。然而,他也暗示这种情况可能发生改变。尽管他在十多年前便开始撰写这些想法,那时生成性人工智能(AI)尚未兴起,汉弗莱斯就预见到了人类主导科学研究的时代可能所剩无几。他识别出科学的一个后期阶段——他称之为“自动化场景”,即计算机完全接管科学。在这种未来中,用于科学推理、数据分析、建模和理论化的计算能力将远远超过我们自己的能力,以至于我们人类不再需要参与。机器将接续我们曾经开展的科学研究工作,将我们的理论推向新的、意想不到的高度。
根据一些消息来源,人类在科学知识上的主导地位即将结束。最近一项针对人工智能研究人员的调查显示,在一个世纪内,人工智能有50%的可能性在所有工作中取代我们(即使有些工作我们更愿意自己保留,比如陪审团成员)。你可能有不同的看法,认为这样的世界是否可能或何时会到来,但我希望你能暂时放下这些观点,想象一下这种人工超级智能最终可能成为现实。它们的发展意味着我们可以将科学工作的重任交给我们在认识论上更为优越的人工后代,他们会比我们所能想象的更快、更好地完成这项工作。这确实是一个奇怪的世界。
首先,人工智能可能会决定探索那些人类科学家缺乏激励或动力去追求的科学兴趣,从而开辟全新的发现方向。它们甚至可能获取关于我们这个世界的知识,而这些知识超出了我们大脑的能力范围。那么我们将如何应对?我认为我们需要现在就开始提出这些问题,因为在短短几十年内,我们所知的科学可能会发生深刻的变化。
虽然听起来像是科幻小说的情节,但汉弗莱斯提出的科学自动化场景将是几个世纪以来趋势的又一步。人类从未真正独自进行过科学研究。我们长期以来依赖工具来增强我们对世界的观察:显微镜、望远镜、标准化的尺子和烧杯等。而且有许多物理现象,我们如果没有仪器就无法直接或精确地观察到,例如温度计、盖革计数器、示波器、量热计等。计算机的引入代表了人类在科学中的中心地位进一步下降的又一步:汉弗莱斯的混合场景。正如玛戈特·李·谢特利(Margot Lee Shetterly)在她的著作《隐藏人物》(2016年)以及后续电影中所记录的一个显著例子,美国首次太空飞行需要由人类数学家包括凯瑟琳·约翰逊来完成计算。到了美国登月任务时,不到十年后,大部分这些计算已经转交给计算机处理。
我们对科学的贡献仍然至关重要:我们人类依然掌握着主导权——我们确定科学问题,解释结果,并最终决定科学的进展。如果我们遵循汉弗莱斯的轨迹,我们完全放弃科学认识论王座的时刻只会出现在更晚的阶段。在这个时候,人工智能不仅能够完成我们设定的任务(这是混合场景的延续),还能够开展它们自己的研究计划:按照其独立识别的一套理论美德和价值观,制定自己的研究议程、数据收集、建模和理论——一种完全属于它们自己的科学。
值得在这里停下来惊叹于一个人工超级智能不受人类物理和认识论限制的可能性。许多科学任务超出了人类可能性的范畴,因为永远不会有足够的资金去探索这些问题,或者仅仅因为没有足够的人类兴趣。当我写下这些话时,我正在看后院里一片部分腐烂的树叶。也许一个人工超级智能会对开发一种预测模型感兴趣,这种模型能以极其精确的方式,精确到秒,解释任何特定树叶的腐烂过程和速率,这取决于树种、叶子大小、与各种微生物的历史接触、阳光和水分的有无等因素——这是一个极其复杂的问题,这样的细节似乎并无明显的实际价值。或者,为了回答我儿子曾经问我的一个问题,也许一个超级智能能够开发出一种模型,可以准确预测他留在山里的雪球中的水分子将在何时流经我们房子附近的河流,这个系统排水的山脉系统。这样的预测将需要一个极其复杂和详细的模型,包括流域、流体力学、气候以及系统的其他一系列特征。
并不是说我们人类永远不能回答这些问题。如果有足够的专注和资金,我相信科学家们有能力开发出有效的预测模型来解决这些以及其他深奥的现象。但现实是,我们不会这样做。无论是好是坏,今天的科学都受到强烈的人类因素的影响:经济价值、政治优先事项、职业前景、文化趋势,以及一系列人类偏见和信念。试想一下,如果所有这些负担都能被抛弃,科学将会是什么样子。
随着超级智能开展它们自己的研究计划,它们的工作对我们而言将变得难以理解。自动化场景不仅仅允许高效探索我们无法或不愿涉足的科学项目。尽管人工智能可能继续在我们当前理论的框架内工作,但它们并没有必要这样做——它们可能会迅速选择用一种全新的世界理论开始。同样,尽管它们可能使用人类科学家熟悉的数学和符号,但它们不会受这些惯例的束缚——它们可能会迅速发展新的数学和表达方式。
鉴于这种可能性(在我看来也是很可能的),这样的AI可能会很快抛弃人类的认识论包袱,我们或许可以选择追随维特根斯坦式的推理路线,将自动化场景视为它们开始说话并发展出独立且全新的科学语言的阶段。路德维希·维特根斯坦在《哲学研究》(1953年)中著名地(并且一如既往地神秘地)说道:“如果狮子能说话,我们就无法理解它。”尽管这句话看似矛盾,但维特根斯坦的观点是,语言的意义深深嵌入并交织于作为人类内部体验之中。科学也是如此。随着超级智能开始设定并执行自己的研究计划,它们所做的工作因此对我们而言将变得难以理解,因为我们缺乏理解它们科学所需的内部视角。
至少有可能存在我们人类认识论能力的局限:无数我们无法理解的数学或超出我们三维经验的多维概念。其他动物智力能力的局限性(试着向现存最聪明的黑猩猩解释广义相对论)是思考我们自身智力能力也可能存在局限性的理由:过于复杂的观念难以理解。即使假设我们不受有限认识论能力的约束,也存在另一个问题,即人工超级智能的实际推理可能超出我们的能力范围。理解自动化场景的科学可能需要同时考虑数百个复杂的模型,每个模型都有数百个参数,这些参数之间没有一个能与熟悉的人类概念相联系。虽然我们可能能够理解这些参数(甚至可能是模型本身),但我们缺乏同时将它们全部整合在一起的能力。
另一个促使人工智能科学发展的理由是美学。当我个人考虑我们社会为科学研究提供资金时,美学因素已经成为一个重要的驱动力。认识到世界正在被认识、研究和理解,本身就有一种美学上的愉悦感。这能否延伸到非人类科学家呢?也许不会一夜之间就实现。然而,未来学会与人工智能共存的世代可能会认为,一个愿意推动这种超人类理解的社会可以被视为一个好社会。
出于善意,人类或许会选择追求自动化场景,因为我们认为让人工智能追求它们自身的高级科学是有益的。尽管我们可能会感到沮丧——甚至可能感到不安——人工智能将了解我们所不了解的事情,但我们仍然会出于对道德义务或对我们人工智能后代的良好意愿而追求它。同样多的是我们可能决定不追求自动化场景的理由。也许人工智能做出的发现传递给我们的东西会导致新的可怕武器。或者我们可能认为,由于它们需要一些内部且不受限制的自主权,这会增加人类被奴役或灭绝等末日情景的风险。也许只是担心某些超级智能会以一种令人不安的人类式傲慢方式运作,以危险、不道德或违背人类共同价值的方式进行实验。
出于善意,人类或许会选择追求自动化场景,因为我们认为让人工智能追求它们自身的高级科学是有益的。尽管我们可能会感到沮丧——甚至可能感到不安——人工智能将了解我们所不了解的事情,但我们仍然会出于对道德义务或对我们人工智能后代的良好意愿而追求它。但尽管存在这些担忧,似乎我们不太可能阻止其发展进程,如果技术上可行的话。可以说,我们最终会得到自动化场景的最可能原因是,我们无法摆脱资本和竞争的力量。我们可能会毫不经过深思熟虑就到达那里,仅仅因为我们能做到,或者因为有人想第一个建造它。未来可能会简单地降临到我们头上,无论我们是否反思性地想要它。
我们将继续保持对理解和解释自然世界的好奇。细心的读者会留意到,在追求自动化场景的所有可能理由清单中,有几个动机是缺失的:最显著的是我们目前追求科学的所有理由。我们不会出于增强我们自身对世界的知识和理解的目的,或能够更好地解释现象,或展示对自然世界更大的干预控制能力而追求自动化场景。这些不可能成为追求自动化场景的原因,因为这种科学的本质排除了这些。
自动化科学从人类手中夺走了知识的王座,将我们排除在对新发现的内部视角之外,这些发现可能是复杂得超出我们的认知范围。因此,它不会满足我们人类对理解、解释、知识或控制的渴望。或许随着时间的推移,我们可以学会放弃这些欲望——成为一个不感兴趣和无好奇心的物种。但我怀疑这一点。就像未来一样,我怀疑这些欲望会到来,无论我们是否喜欢它们。
那么,我们将做什么?在汉弗莱斯最初提出自动化场景时,他建议自动化场景会取代人类科学。我不同意。由于我们对理解、解释、知识和控制的渴望依然存在,我们不可避免地会采取行动来满足这些渴望——继续进行科学探索。我们人类创造美丽的事物,在友谊和浪漫中寻求人际联系,并在生活中寻找和构建意义。同样的道理也适用于我们对科学的动力。
我们将继续保持对理解和解释自然世界的好奇。细心的读者会留意到,在追求自动化场景的所有可能理由清单中,有几个动机是缺失的:最显著的是我们目前追求科学的所有理由。我们不会出于增强我们自身对世界的知识和理解的目的,或能够更好地解释现象,或展示对自然世界更大的干预控制能力而追求自动化场景。这些不可能成为追求自动化场景的原因,因为这种科学的本质排除了这些。
自动化科学从人类手中夺走了知识的王座,将我们排除在对新发现的内部视角之外,这些发现可能是复杂得超出我们的认知范围。因此,它不会满足我们人类对理解、解释、知识或控制的渴望。或许随着时间的推移,我们可以学会放弃这些欲望——成为一个不感兴趣和无好奇心的物种。但我怀疑这一点。就像未来一样,我怀疑这些欲望会到来,无论我们是否喜欢它们。
如果自动化场景成为现实,它似乎必须作为一种新的、替代的、次要的路径——不是取代,而是补充。两种物种并肩进行科学探索,有着不同的动机、兴趣、框架和理论。也许也会有一些科学领域是人工智能不感兴趣的,比如人类努力更好地理解自己的心智、选择、关系和健康。
细心的读者会留意到,在追求自动化场景的所有可能理由清单中,有几个动机是缺失的:最显著的是我们目前追求科学的所有理由。我们不会出于增强我们自身对世界的知识和理解的目的,或能够更好地解释现象,或展示对自然世界更大的干预控制能力而追求自动化场景。这些不可能成为追求自动化场景的原因,因为这种科学的本质排除了这些。
(以上内容均由Ai生成)