当人类成为功能时:我们是在训练 AI,还是 AI 在训练我们?
快速阅读: 据《IBTimes (英文)》称,本文探讨了人工智能时代人类角色的转变,指出人类可能正被算法重塑认知框架。尽管AI提升了效率,但也可能导致人类创造力下降和认知商品化。**Cogito科技**等公司试图通过伦理方法重视人类贡献,但要实现人机共生,需培养人类的独特能力和批判性思维。
当我们穿梭于无数的标注任务、点击确认界面以及数据集验证之中时,现代知识工作者正逐渐从决策者变为算法网络中的节点。表面上,人工智能时代以人类训练机器感知、交流和决策为特征。然而,在这一关于人类能动性的叙述之下,隐藏着一个发人深省的反转:或许我们并非在塑造人工智能,而是人工智能正在悄然重塑我们的认知框架。
像**Cogito科技**这样的AI公司,不断优化用于大型语言模型(LLM)评估和基于人类反馈的强化学习(RLHF)的数据开发实践。然而,更深层次的问题超越了技术实现本身:这些模型正在我们内部引发怎样的转变?作为算法镜像的人类标注员,在成千上万的AI标注项目中,人类训练系统解读复杂的社交信号——检测讽刺、解析医学术语并识别虚假信息。然而,这种训练是相互的。当工人因达成一致而非真实判断而获得奖励时,人类的认知行为会朝着与算法逻辑对齐的方向演变。
**Cogito科技**首席执行官**罗汉·阿格拉瓦尔**观察到:“我们越来越多地看到工人成为他们本应批评的模型的镜子。人类视角被机器预期的期待所取代。”这一现象与克拉克和查莫斯的扩展心智理论产生共鸣,该理论认为认知延伸至大脑之外进入环境互动。然而,在这里,“环境”是算法构建的——目标并非人类福祉,而是预测精准度。
**迈克尔·格里希**在2025年的研究《社会中的AI工具:对认知外包及批判性思维未来的影响》中强化了这一点,指出大量依赖生成式AI的人群在记忆力保持和原创问题解决能力方面出现了可测量的下降(格里希,2025)。创意直觉还是算法确认?这种影响不仅限于数据标注,还延伸到创意和智力劳动。作家、设计师和分析师利用ChatGPT或Bard等AI工具似乎最初摆脱了例行公事。然而,反复接触AI工具的确定性和概率性推理,悄然侵蚀了人类的直觉与创造性差异。当AI生成的草稿“足够好”时,人类作者从创作者转变为合成逻辑的编辑。依赖算法建议的设计师更注重惯例而非创新,缩小了创造原创所需的智力带宽。阿格拉瓦尔简明扼要地总结了这一风险:“创造力屈服于校准;人类越来越反映出其数字伙伴的局限性。”
认知商品化的经济学
这种认知转变对经济产生了深远影响。虽然零工经济平台经常将劳动力分解为微任务,并将人类判断商品化为低价值的‘标注工作’,但像**Cogito科技**这样的公司有意对抗这一趋势。通过其**DataSum框架**,**Cogito科技**强调可追溯性、劳动力透明度和道德治理。与那些将人类视为临时支架——直到AI达到足够自主性为止的平台不同,**Cogito科技**积极营造一种重视工人智力贡献的环境,鼓励细致入微的判断和批判性反馈,而非机械的服从。
正如哲学家**舒莎娜·祖博夫**在其对监控资本主义的批评中所言,不受约束的经济实践嵌入了无形限制自主权和将人类能动性减少为算法功能的权力动态。语言本身具有启发性——“人机协作”、“标注服务提供者”——揭示了一种世界观,即人类主要存在是为了纠正机器的错误,而不是贡献独特的视角。**Cogito科技**的方法明确拒绝这种商品化,认识到人类标注员是不可或缺的合作者,他们的见解推动了既具道德又高效的AI发展。
逆流:迈向伦理的人机共生
然而,反对力量正在兴起。学术和专业机构日益强调批判性的人工智能素养,呼吁关注算法输出中的偏见。**Cogito科技**等类似公司认识到,AI的社会影响直接取决于人类标注员的道德和心理健康。因此,培养细致的人类判断而非机械确认正成为道德和操作上的双重必要。此外,创新的伦理框架提倡设计刻意的反馈回路,奖励认知多样性与智力冒险,而非盲从。
这是一个关键转折点——认识到基于狭窄且剥削性人类反馈训练的系统不可避免地会在社会层面重现这些缺陷。重新学会质疑人工智能无疑将继续存在。关键任务不在于阻止其整合,而在于重新定义我们与其的关系。人类将成为机器逻辑的执行者,还是可以设计出使AI成为人类认知深度放大器而非削弱者的环境?未来仍不确定。
我们仍然可以重获独特的人类能力——质疑、挑战、惊喜和反驳的能力。最终,抵制认知简化论需要有意识地培养人工智能无法复制的创造性模糊性、道德反思和智力自主性。
(以上内容均由Ai生成)