为什么 Microsoft 报告承认 AI 使人变得愚蠢
快速阅读: 据《台北时报》称,微软发布的一项研究表明,使用AI工具如ChatGPT的员工批判性思维能力正在下降。研究发现,过度依赖AI可能导致员工技能退化。微软希望确保其AI工具对企业仍具价值,因此进行了这一研究。尽管AI带来便利,但也引发了对人类认知能力是否会因依赖AI而弱化的担忧。这促使科技公司重新思考如何设计增强而非削弱人类能力的AI产品。
为什么微软报告承认人工智能正让人变笨
帕姆比·奥尔森 / 彭博观点
微软公司计划今年在人工智能(AI)上投入800亿美元,以巩固其领先地位。那么,为什么它发布了一份研究报告,显示使用生成式AI工具(如ChatGPT)的员工批判性思维能力正在衰退?
如果我们宽容地看待,可以说这是一种真正的科学研究。更可能的是,随着AI颠覆某些工作,微软希望保持领先,确保其工具对企业仍然有用。在大型科技公司竞相打造更大AI模型的当下,这是一种对行业商业模式和社会结果的令人耳目一新的深思熟虑的方法。
这项研究与卡内基梅隆大学的研究人员合作进行,调查了319名知识工作者如何使用AI,包括一名教师使用DALL-E 2为学生制作关于洗手的演示文稿图像,以及一位大宗商品交易员使用ChatGPT生成策略。研究人员发现了一个显著的模式:参与者越信任AI在某些任务上的能力,他们自己就越少练习这些技能,例如写作、分析和批判性评估。因此,他们在这些领域自我报告技能萎缩。
一些受访者表示,他们开始怀疑自己完成任务的能力,比如核实文本语法或撰写法律信函,这导致他们自动接受生成式AI提供的内容。当时间紧迫时,他们甚至更不可能练习自己的技能。“在销售中,我必须每天达到一定的配额,否则可能会失去工作。”一位匿名的研究参与者说。“因此,我使用AI来节省时间,并没有太多余地去思考结果。”
AI公司Anthropic的一项类似近期研究发现,人们在其模型Claude的对话中表现出的顶级技能是“批判性思维”。这描绘了一幅未来的图景,在这个图景中,专业工作者最终会成为AI输出的管理者,而不是新想法和内容的创造者,尤其是在AI模型变得更加出色的情况下。
OpenAI最新的“深度研究”模型,每月需200美元,可以在互联网上进行研究,搜索图片、PDF和文本,以生成包含引用的详细报告。一个结果是认知工作将迅速转型——德意志银行AG在上周三给投资者的一份报告中指出。“人类将因正确提问并利用判断力评估和迭代答案而获得奖励。”研究分析师阿德里安·科克斯写道。“其余大部分认知过程将被外包。”
尽管这听起来令人担忧,但请考虑苏格拉底曾担心写作会导致记忆力衰退,计算器一度被认为会扼杀我们的数学技能,GPS导航让我们离开手机就无处可寻。最后一点可能是部分正确的,但总体上,人类已经找到了其他用途来应对他们的大脑外包思考的情况,即使我们的数学和导航技能变得懒惰。AI的不同之处在于,它影响了我们日常认知的更广泛部分。我们被置于需要频繁进行批判性思考的位置,而不是计算总和或规划路线——无论是撰写一封敏感的电子邮件,还是决定在报告中向老板汇报什么。这可能导致我们无法胜任核心专业工作,或者更容易受到误导。
这又回到了一个问题:为什么微软——从OpenAI的GPT模型销售中获利——发布了这些发现。报告本身提供了一个线索,作者们表示,如果不了解知识工作者如何使用AI,以及他们的大脑在使用AI时的工作方式,他们可能会创造出不符合工人实际需求的产品。如果销售经理认为使用微软的AI产品会使技能下降,那么他们的工作质量也可能下降。
微软研究中一个引人注目的发现是,人们对AI工具的能力越有信心,他们就越不可能再次检查其输出。鉴于AI仍倾向于产生幻觉,这增加了低质量工作的风险。当雇主开始注意到绩效下降时会发生什么?他们可能会归咎于员工——但也可能会归咎于AI,这对微软不利。
科技公司大声宣传AI是一种“增强”而非取代我们智力的工具,正如这项研究所暗示的那样。因此,微软的教训在于如何设计未来的产品,不是使它们更强大,而是以某种方式设计它们来增强而非削弱人类能力。例如,ChatGPT及其同类产品可以偶尔促使用户提出自己的原创想法。如果不这样做,企业可能会得到能够用更少资源做更多工作的劳动力,但同时也可能无法识别这种新效率是否将他们引向错误的方向。
帕姆比·奥尔森是彭博观点专栏的技术撰稿人。她曾是《华尔街日报》和福布斯的记者,著有《霸权:AI、ChatGPT和将改变世界的大赛》。本文不一定反映编辑委员会或彭博LP及其所有者的观点。
(以上内容均由Ai生成)