AI 的使用可能会降低人类的认知能力并削弱批判性思维能力
快速阅读: 据《黑客日》最新报道,研究发现,生成式人工智能(GAI)可能削弱人的独立工作能力,减少批判性思维。调查中,319名专业人士表示,他们依赖生成式人工智能完成任务,但对其输出缺乏信心,需要进一步验证。生成式人工智能虽有用,但不能替代人类的分析和判断,需谨慎使用。
任何关于人工智能潜在利益和/或风险的声明往往都会变得极具争议性,因为世界试图弄清楚这项技术对他们意味着什么,以及如何从中赚取最大利润。无论是指人工推理还是人工智能,根据你的提问对象不同,人工智能主要被用作辅助人的工具。无论是以聊天客户端回答普通问题的形式,还是生成文章、图像和代码,其支持者声称它将使工人更高效并消除乏味。微软和卡内基梅隆大学(CMU)的研究人员最近发表的一篇论文中,调查结果表明这种影响主要是负面的。总体结论是,通过强迫人们依赖外部工具来完成基本任务,他们变得在需要时更不具备独立完成这些任务的能力。伊曼努尔·迈伯格在评论这项研究时提供的一个相关例子指出,简单的事情被认为不重要,但如果最终没有一个可用的智能手机会怎样?所谓的生成式人工智能(GAI)是否会让工人变成盲目重复“魔法机器”输出内容的工具,或者它是否有真正的潜力去除乏味并提高生产力?
在这项调查中,319名专业工作者被问及他们在工作中如何使用GAI以及他们对GAI使用的看法。他们被问及如何评估来自ChatGPT和DALL-E等工具的输出,并且他们对自己在没有GAI的情况下完成这些任务的信心程度。具体有两个研究问题:由于GAI,他们何时以及为何认为需要增加或减少批判性思维?
显然,这里首先要定义的是“批判性思维”这一术语。在调查的背景下,创造需要评估正确性和适用性的产品(如代码、营销材料等),批判性思维主要意味着阅读由GAI生成的文本,分析生成的图像,并在签署前测试生成的代码的准确性。第一个研究问题的回答通常表明,批判性思维与任务被认为的琐碎程度成反比,与潜在的负面影响成正相关。另一些参与者表示接受超出他们领域知识范围的GAI回应,但往往缺乏验证这些主张的手段或动力。
第二个问题得到了更加多样化的反馈,主要取决于使用场景。尽管许多参与者表示减少了批判性思维的需求,但普遍认为GAI的回应不可信,必须进行验证、编辑,并经常需要向GAI系统提出更多查询。第一个研究问题的回答通常表明,批判性思维与任务被认为的琐碎程度成反比,与潜在的负面影响成正相关。另一些参与者表示接受超出他们领域知识范围的GAI回应,但往往缺乏验证这些主张的手段或动力。
参与者感知使用GAI工具时的努力分布。(李浩平等人,2025年)
值得注意的是,这是关于参与者的感知,而不是任何客观的效率或准确性的衡量标准。研究作者确定的一个重要因素是自我信心,自我信心较低的人更依赖GAI。考虑到GAI生成的文本众所周知会引发循环逻辑,加上自信和吹嘘掩盖了大量错误,这并不是一个好的组合。正是这种自我信心的降低和对AI的信任度增加也降低了批判性思维。实际上,工人们对主题了解得越少,和/或对验证GAI工具输出的关注越少,结果可能就越糟糕。此外,使用GAI工具往往会将工人的活动从信息收集转变为信息验证,从解决问题转变为整合AI输出。因此,专业工作者变成了更多的GAI质量检验员。
值得注意的是,这是关于参与者的感知,而不是任何客观的效率或准确性的衡量标准。研究作者确定的一个重要因素是自我信心,自我信心较低的人更依赖GAI。考虑到GAI生成的文本众所周知会引发循环逻辑,加上自信和吹嘘掩盖了大量错误,这并不是一个好的组合。本质上自动化波罗的海航空学院的空客B737全动飞行模拟器位于维尔纽斯。(波罗的海航空学院提供)
关于GAI及其对人类劳动力潜在影响的问题并不像有些人认为的那样新颖。例如,在商业航空领域,长期以来一直有强烈的自动化趋势。在此期间,飞机从纯粹的手动飞行转变为今天的玻璃驾驶舱,具备自动驾驶系统、集成检查清单和如果接收到ILS信标就能自主着陆的能力。虽然这成功地减少了驾驶飞机所需的机组人员数量,取消了飞行工程师等职位,但它改变了飞行员的任务负荷,从主动驾驶飞机变为大部分时间监控自动驾驶系统。2009年6月,当法航447航班(AF447)在大西洋上空遭遇冰冻导致皮托管堵塞时,这种安排的灾难性后果变得明显。当自动驾驶系统随后断开连接时,飞机处于稳定状态,但在几分钟内,正在驾驶飞机的飞行员却使飞机陷入致命失速。最终,AF447事故调查报告得出结论,机组人员未受过适当培训,未能识别根本问题(即皮托管堵塞)并做出不适当的控制输入。除了培训不足外,诸如失速警报的误导性停止和重新启动,以及由于皮托管导致的空速读数不一致的模糊指示,都导致原本清晰的、需要批判性思考的机会变成了混乱和困惑。AF447的惨痛教训是,尽管自动化可以做得很好,只要有人类在环中,就应该始终训练人类准备好在自动化(不可避免地)失败时取代它。虽然并非所有情况都像驾驶商用喷气机那样关键,但在任何添加任何形式自动化的情况中,关于准备和自满情绪的警告同样适用。
不是智能也许可以总结GAI的方式是,它们是非常有用的复杂工具,但同时它们比砖头还笨。由于这些工具基于概率模型,基本上是从输入查询中推断,所以其中没有推理或理解的过程。智能的部分仍然需要坐在计算机前的人类智慧提供。无论是分析生成的图像以确认它确实显示了所请求的内容,批评生成的文本的风格和准确性,还是仔细检查生成的代码以确认其准确性和无错误,这些都是纯粹的人类任务,无法替代。在过去几年里,我们已经看到依赖GAI往往会遇到麻烦,从律师不费心验证生成的法律文本中的虚假引用案例,到程序员因生成的代码而增加了41%的错误。当然,在后一种情况下,我们已经看到了足够的批评,比如微软的GitHub Copilot首次推出时的批评,不会感到惊讶。在这个背景下,这项最近的调查并不令人意外。尽管GAI工具就是这样,但就像任何工具一样,你必须充分理解它们才能安全使用。既然我们知道准确性不是它们的优势,特别是聊天机器人如ChatGPT为了取悦用户而牺牲了准确性,而且生成的图像往往充满了滑稽的故障,那么你不应该认为依赖GAI是合理的。在ChatGPT及其同类出现之前,我们程序员会使用论坛和像Stack Overflow这样的网站来复制代码段。这是一种习惯,让许多初学者程序员接触到了“信任,但要验证”的老话。如果你不能盲目相信从Stack Overflow复制的复杂代码段,为什么你会接受ChatGPT或GitHub Copilot生成的任何东西呢?
(以上内容均由Ai生成)