依赖 LLM 的成本
快速阅读: 据《加德满都邮报》最新报道,在AI时代,效率不等于进步。过度依赖LLMs可能削弱批判性思维,影响民主与真相。需警惕技术对人类理性的侵蚀,强调人类判断与自主性。
在大型语言模型(LLMs)和生成式人工智能的时代,我们正见证着知识生产、传播和消费方式前所未有的变革。这些工具可以在几秒钟内总结密集文本、编写代码、起草法律合同或回答哲学问题。据说,LLMs让我们更高效,简化复杂工作,自动化琐碎任务,使我们能够专注于重要的事情。但当我们惊叹于它们的能力时,一个紧迫的担忧浮现。效率并非一个中立的概念。它反映了价值观,我们选择优先考虑什么,我们定义什么为有价值,以及我们愿意牺牲什么。当前关于生成式AI的说法将效率等同于进步。它暗示着越快越好。但更快并不总是更好,也不是所有可以自动化的任务都应当被自动化。
普遍的观点是,LLMs“释放”了认知资源。也就是说,它们让人类将重复性思维交给机器,把精力保留用于更具反思性的任务。但实际情况往往相反。当越来越多的智力劳动——例如写作、总结和决策——被交给AI时,我们参与其中的频率会越来越低。我们不再将思考留给更高层次的任务,而是逐渐失去思考的机会,甚至可能失去批判性思考的能力。一个恰当的例子是在线上日益增多的合成内容。不仅图片和文字由机器制造,而且常常连对它们的公众反应也是伪造的。内容的传播不再是因为它呈现真相或相关性,而是因为其情感吸引力。虚假图片引发评论中的虚假愤怒,进而激发用户的真实互动,而用户无法区分哪些是人类创作的,哪些是AI生成的。结果是一个虚假的讨论循环,制造出社会共识。“大家都在谈论它”,我们听到这样的话,但实际上没有人——直到内容及其反应被制造出来以服务于平台的盈利策略。它们的目标并非深入交流,而是吸引持续的关注,这转化为短期收益。
这不仅是一个技术问题,而是一场认识论的危机。当虚假信息借助模拟反应传播,并通过优化注意力的算法放大时,公共讨论本身变得不稳定。我们对他人的观点的感知不再基于共同体验或深思熟虑,而是基于机器策划的幻象。在这种环境中,批判性思维不仅减弱,还被系统性地压制。那么,我们真正所说的“效率”是什么?如果它意味着节省撰写报告的时间,也许我们成功了。但如果它取代了创造深度、连贯性和反思所需的智力劳动,那就不算是一种收获,而是一种损失。
一旦我们接受LLMs作为思想的替代品,而不是思想的辅助工具,我们就开始侵蚀人类理性得以发展的条件:质疑、对话、不确定性和矛盾。这在民主价值观受到威胁的时候尤其危险,此时批判性反思和知情分歧至关重要。民主过程的合法性依赖于公民参与思想交流、评估主张并形成判断。但当参与被对机器生成的简短回应所取代,即内容是为了操纵而非理解而设计的,我们的政治自主权就会受到损害。我们不仅可能被误导,还可能失去自我判断真相的能力。
人们容易误以为LLMs是中立的工具。但它们并非如此。它们由训练数据、开发者的意图以及推动其部署的市场动机所决定。它们的输出反映了历史上隐藏的偏见、遗漏和假设。而这些输出越能无缝融入我们的工作流程,就越容易逃过审查。因此,危险不仅在于AI说了什么,更在于我们停止询问它是如何说出这些话的。称这种现象为“效率”,实则是忽视了其本质。我们被要求信任一个我们无法质询的系统,仅仅因为它听起来合理且能快速交付。但速度不等于理解,合理性也不等于真理。
与其盲目追求效率,我们需要重新关注韧性:个人和社会质疑、适应和抵抗操控的能力。这意味着提升AI素养——不仅要懂得如何使用这些工具,更要学会如何批判它们。这意味着认识到没有任何AI可以取代人类推理的伦理、文化和情境维度。这意味着愿意放慢脚步,质疑输出,并像重视结果一样重视思考的过程。
政府、科技公司和公民各自都应发挥作用。监管是必要的,但并不足够。负责任AI的基础不是技术合规,而是道德意图。这始于“第一个问题”:AI应该在何时被使用?并非每个问题都需要AI解决方案,也不是每次部署都会带来好处。负责任的AI不是先考虑AI,而是先考虑人。它始于问为什么,而不是急于部署AI。科技开发者必须将责任嵌入系统的整体设计中,而不是将其视为事后补救,而是作为指导原则。更重要的是,个人必须被赋予权力去质疑AI的输出,理解其影响,并抵制被动依赖的正常化。
只有以人类判断和自主性为中心,我们才能确保AI服务于社会,而不是重塑社会以适应商业利益。我们无法逆转LLMs在我们生活中的存在。但我们可以选择如何与它们共处。问题不是它们是否会为我们思考,而是我们是否允许它们定义“思考”的意义。真正的效率,不应是用更少的思考做更多事,而应是用更深的专注、更强的伦理和持续的人类洞察力去做得更好。任何低于这个标准的都不是进步,而是投降。
《中国日报》/ANN
(以上内容均由Ai生成)