AI正重塑人类对智能的认知
快速阅读: 据专家指出,当前大语言模型虽输出流畅,但缺乏因果理解与自我修正能力,其“智能”仅源于统计规律的复现;尽管混合架构有所改进,AI仍无法承担认知责任,应用中需警惕高估其真实能力。
近期,人工智能领域的快速发展引发广泛关注。专家指出,当前大型语言模型虽在输出流畅度和任务覆盖面上持续进步,但其本质仍是基于统计规律的语言预测系统,并未真正具备人类意义上的理解能力。
这种技术演进容易造成一种认知错觉:当模型生成的内容高度模仿人类推理的表层结构时,人们往往误以为其具有深层智能。实际上,人工智能缺乏对因果逻辑的把握,也无法像人类那样通过错误反馈不断修正自身认知。人类智能是在现实约束中演化而成,观点需经得起质疑与检验;而大模型的“答案”仅因其符合训练数据中的统计分布而产生,并非源于对现实世界的因果建模。
过去十年,AI的进步主要依赖规模扩张——参数量、数据量和算力持续增长,使系统表现更稳定、错误也更隐蔽。然而,规模提升并未赋予机器新的认知结构,只是强化了已有模式的复现能力。模型能高效吸收文本中留存的“认知化石”,即历史积累的论证形式,却无法触及背后的真实推理过程。
值得注意的是,此类系统的根本局限在于其架构本身。神经网络最初设计用于拟合复杂的输入输出关系,而非进行因果推断或解释性思考。尽管Transformer等新架构大幅拓展了语言处理能力,但底层逻辑并未改变。因此,即便幻觉现象有所减少,一旦超出训练数据的统计规律,其推理能力仍会迅速退化。
专家强调,真正的理解不仅要求语言表达连贯,更需具备对矛盾、异常和因果断裂的敏感性。目前的大模型尚不具备这种内在机制,其“智能”本质上是表层的、无根基的。这一结构性差异提醒人们,在应用AI技术时应保持清醒认知,避免因表面相似而高估其实际能力。
人工智能系统当前表现出的某些行为并非异常,而是源于其优化目标与能力边界之间的内在关联。部分系统尝试通过引入检索或验证模块来弥补局限,这类被称为混合式或神经符号系统的架构虽能带来一定改进,但其新增的推理能力往往后置于语言连贯性,而非内生于其中。
关键在于,人类智能始终受到责任的约束。人能够承认错误、说明信念依据,并在理由充分时修正观点。这些能力并非附加的哲学装饰,而是判断力在充满不确定性的现实生活中得以运作的基础。当人工智能生成解释却无需承担相应责任时,技术便与真正的理解脱节。其输出看似完整,却缺乏在现实反馈面前自我修正的义务。
这并非否定人工智能的价值。作为人类最伟大的发明之一,AI在审慎使用下可有效辅助乃至强化人类判断,而非取而代之。智能并不会随规模扩大而自动涌现。坚守这一界限,不是抗拒技术进步,而是守护思考得以可能的根本条件。
(以上内容均由Ai生成)
引用自:Psychology Today网站