生成式AI非文字计算器,五大理由告诉你为何
快速阅读: 去年讨论会上,发言人称生成式人工智能只是工具,类似计算器。然而,生成式人工智能存在五大差异:产生幻觉、伦理问题、削弱自主性、社会偏见、多功能性。需批判性看待其影响。
去年,我参加了一场关于教育领域生成式人工智能的讨论会。会上,一位发言人提出:“这有什么大不了的?生成式人工智能就像计算器一样,只是一个工具。”
这种类比越来越常见。OpenAI首席执行官山姆·阿尔特曼本人也称ChatGPT是“文字的计算器”,并把对新技术的评论与当初计算器问世时的反应相提并论。
然而,生成式人工智能系统并不是计算器。将它们视为计算器掩盖了其本质、功能和服务对象。这种简单的类比简化了一项存在争议的技术,并忽略了与过去技术相比的五个关键差异:
1. 计算器不会产生幻觉或说服力
计算器根据明确的输入计算函数。你输入888 ÷ 8,得到唯一正确的答案:111。这个输出是固定的,不可改变。计算器不会推断、猜测、产生幻觉或说服。它不会向答案中添加虚假或不需要的元素,也不会编造法律案例或告诉人们“去死吧”。
2. 训练ChatGPT引发根本性的伦理问题
训练ChatGPT的过程中,肯尼亚的工人每小时只赚一两美元,却需要筛选不可逆创伤性内容。计算器则不需要这些。委内瑞拉金融危机后,一家AI数据标注公司利用廉价劳动力,采用剥削性的就业模式。计算器也不需要这些。计算器没有要求建造新的大型发电厂,也没有与人类争夺水资源,而AI数据中心正在一些最干旱的地区这样做。计算器行业也没有推动大规模的矿产开采,如智利阿塔卡马地区的铜和锂矿开采。
3. 计算器不会削弱自主性
计算器没有成为“生活自动补全”的潜力。它从未提供过从吃什么、去哪里旅行到何时亲吻约会对象的所有决策建议。计算器从未挑战我们的批判性思维能力。然而,研究表明,生成式人工智能会侵蚀独立思考能力,增加“认知外包”。长期依赖这些系统可能会将日常决策权交给不透明的企业系统。
4. 计算器没有社会和语言偏见
计算器不会复制人类语言和文化的等级结构。生成式人工智能则不同,它的训练数据反映了几个世纪以来的不平等权力关系,其输出也反映了这些不平等。语言模型继承并强化了主流语言形式的优越地位,同时边缘化或抹去不太受欢迎的语言形式。虽然有一些项目试图解决技术发展中少数群体的声音被排除的问题,但生成式人工智能对主流英语的偏好仍然令人担忧。
5. 计算器不是“全能机器”
与计算器不同,语言模型不仅仅在数学领域运作,而是有可能渗透到一切:感知、认知、情感和互动。语言模型可以扮演“代理人”、“伴侣”、“影响者”、“治疗师”和“男朋友”等多种角色。这是生成式人工智能与计算器之间的关键区别。虽然计算器帮助我们进行算术运算,但生成式人工智能可能同时承担事务性和互动性功能。在一个会话中,聊天机器人可以帮助你编辑小说、编写新应用程序的代码,甚至提供你喜欢的人的心理分析。
保持批判性
将生成式人工智能比作计算器使语言模型和所谓的“副驾”、“导师”和“代理人”听起来无害。这种类比允许无批判地采用这些技术,并暗示技术可以解决我们作为社会面临的各种挑战。这也完全符合制造和分发生成式人工智能系统的平台利益。一个中立的工具无需承担责任、接受审计或实现共同治理。
然而,正如我们所见,生成式人工智能并不像计算器那样简单。它不仅进行数字计算,还会产生不受限的输出。理解生成式人工智能的真实面貌需要严谨的批判性思维。这种思维能够帮助我们面对“快速行动,打破常规”的后果,帮助我们决定这些破坏是否值得付出代价。
(以上内容均由Ai生成)