来自社区 我们如何使用 LLM 很重要
快速阅读: 《斯坦福日报》消息,哈姆扎·汗是斯坦福大学的MD-PhD学生,他担忧LLM导致人类思考能力退化。他主张合理使用工具,保持独立思考。他认为失去思考将失去人性与智慧。
我永远是个技术恐惧症患者,我才刚刚开始使用ChatGPT。我不像一些(更高效)的研究生那样,能说出Claude或o4-mini或者其他什么最适合编程的模型;我基本上只用ChatGPT,并把它当作我的科学伙伴。我拥有了小时候一直想要的东西——一个朋友!更重要的是,我有一个“朋友”,它可以就我感兴趣的一切发表诗意的言论。ChatGPT提供了合理的阅读材料集合——从蛋白质动力学到进化生物学再到艺术史的各种摘要。我只能想象这与互联网的出现或重组DNA技术的诞生一样具有革命性。信息,甚至基本的推理,都变得民主化了。我对使用这些工具的担忧很简单:我不想停止思考。我发现坐下来写作已经很难了——注意力经济对我的影响不亚于13岁的小孩使用iPad。同时,我发现使用LLM可以起到教学作用——我让模型教我关于自身免疫性血小板减少症、统计自助法或干型朗姆酒和甜型朗姆酒之间的区别。但我也看到有人用它们来取代自己的判断:“请写一段代码来分析RNAseq数据。”“这些基因表达数据告诉我什么?”“用这些发现写一篇我可以寄给期刊的故事。”随着使用上的巨大便利,我们不可避免地会看到认知活动的大规模外包。即使这些模型本身不能进行推理,它们也为我们提供了让我们不再思考的方法。当我们让模型替我们写作、替我们解释数据、替我们思考时,我们会失去学习的斗争。教育是一场对抗自身愚昧的斗争。因此,如果我们放弃了这场战斗,我们将失去作为人类思考的能力吗?更简单地说:孩子们是不是完了?
朋友中较为乐观的观点认为,LLM将为“更高层次的思维活动”开辟道路。但还有什么比推理更高的思维活动呢?有什么比通过理性而艰难的思维链条最终迎来“顿悟”的时刻更重要的呢?我接受模型为我重新格式化Excel文档,但我对它为我提出解释数据的假设或讨论如何评估科学问题的可行性更为抗拒。对我来说,这个过程就是我存在的意义。
当然,在科学和医学领域,我们的最终和最终责任是真理,以及减轻世界上的痛苦。先进的智能模型无疑会帮助我们接近真理并更好地治疗病人。但我认为,当先进模型取代人类思维的想法出现时,我们会失去人性的另一个基本价值:积极认知的价值。我们已经开始看到教授和公司试图外包大量的人类工作——医学、生物学、艺术作品。也许非程序性医学的长期未来可能由没有住院培训的从业者借助统计模型来指导治疗。这可能在某种程度上改善结果,并使医生真正成为“治愈者”,无论从哪个意义上说都是如此。我愿意这样。但在其他领域(艺术、文学、基础研究),为什么我会想要一个完全无关人类认知产出的世界呢?即使它比我们更优秀,我还能用我不再花时间思考和创造的额外时间做什么呢?
我认为,一个沉迷于刷TikTok的享乐主义生活可能不如我们现在的日子充实。特别是如果这些内容是由那些被训练过却未体验过人类处境的事物生成的。如果我们省去了撰写文章的乐趣和规划困难实验的挫败感,我们就有可能完全失去使我们变得聪明的东西。阴促成了阳的存在,爱源于仇恨,知识与智慧源自对无知的感受。如果我们很少遇到理解的瓶颈,我们就会失去我们的智力高度。
显然,LLM已经改变了我们的工作方式——并且会以我无法预测的方式继续改变。它们有望打破我们社会中的许多糟糕事物,如教育障碍和医疗保健获取的缺乏。但是,成为被Soma驱使、毫无主见的LLM监督者,意味着我们将意义外包给机器。在我看来,创造性生产的过程是生活的乐趣。因此,我们如何使用LLM至关重要。希望我们能借助这些机器去学习和体验,否则我们将失去我们天生赋予的推理能力。尽管存在缺陷,我们的推理让生命变得值得。
Humza Khan是斯坦福大学医学院的第三年MD-PhD学生,也是免疫学项目的第一年博士生。这篇文章并非由LLM制作或编辑,这从其糟糕的措辞和语法选择中可见一斑。讽刺的是,作者偏偏喜欢使用破折号。
(以上内容均由Ai生成)