代理 AI 的两种模型
快速阅读: 《国际政治与社会杂志》消息,自主型AI代理的普及可能加剧不平等,损害人类自主性,并导致更具对抗性的社会环境。相较之下,AI作为顾问更能提升决策质量且避免潜在风险。
无论我们是否做好准备,人工智能“代理人”正在到来。尽管关于AI模型何时能够自主与数字平台、其他AI工具甚至人类互动仍存在诸多不确定性,但可以肯定的是,这一发展将带来变革——无论好坏。然而,尽管围绕代理型AI有大量评论(和炒作),许多重大问题仍未解决,其中最大的问题是科技行业正在努力开发哪种类型的AI代理?不同的模型将具有截然不同的影响。
采用“AI作为顾问”的方法,AI代理将为人类决策者提供个性化、可靠且相关的信息,让人类始终掌控决策权。但在“自主型AI”模式下,代理将代替人类做出决策。这是一个意义深远且影响广泛的区分。人类每天做出数百个决定,其中一些对他们的职业生涯、生计或幸福有着重大影响。许多人基于不完整或不完美的信息做出这些决定,更多地受到情绪、直觉、本能或冲动的影响。正如大卫·休谟所言:“理性只是情感的奴隶。”人类可能在没有系统性推理或充分关注后果的情况下做出大多数决定,但正如休谟认识到的那样,这并不完全是坏事。这是使我们成为人类的原因。热情体现目标,它也可能在我们如何应对复杂世界中发挥关键作用。如果AI顾问能够提供个性化、可靠且相关的信息,许多重要决策可以得到改善,但人类动机仍将占据主导地位。
但是,让自主型AI替我们做决定有何不可?它们难道不能进一步提高决策质量,节省时间并防止错误吗?这种看法存在几个问题。首先,人类的自主权对于人类的学习和繁荣至关重要。即便输入和建议来自非人类代理,做出决定并思考结果的行为本身就能确认我们的自主性和目标感。人类所做的许多事情并不是关于计算或收集输入以决定最佳行动方案;相反,它是关于发现——如果所有决定都交给AI代理,这种体验将会变得越来越稀少。
此外,如果科技行业主要追求自主型AI代理,自动化更多人类工作的可能性将大大增加。然而,如果AI主要成为加速自动化的手段,任何广泛共享繁荣的希望都将破灭。最重要的是,AI代理代表人类行事与人类为自己行事之间存在根本区别。人类互动的许多场合既有合作又有冲突元素。考虑一家公司向另一家公司提供投入的情况。如果这个投入对买方来说足够有价值,那么两家公司之间的交易将是互惠互利的(通常也对社会有益)。但要进行任何交换,投入的价格必须通过一种本质上充满冲突的过程来确定。价格越高,卖方相对于买方受益越多。这种讨价还价的结果通常由规范(如公平观念)、机构(如违反时会带来成本的合同)和市场力量(如卖方是否有能力卖给其他人)的组合决定。
但如果买方以完全不妥协而闻名——拒绝接受除最低可行价格之外的一切,而没有其他买家,卖方可能会被迫接受低报价。幸运的是,在日常交易中,这种不妥协的态度很少见,部分原因是维护良好声誉有利可图,更重要的是,大多数人缺乏胆量和野心以如此激进的方式行事。但现在想象一下,买方有一个不关心人类礼貌且拥有非人类坚定神经的自主型AI代理。该AI可以被训练始终保持这种不妥协立场,而对方则毫无希望说服其走向更互利的结果。相比之下,在AI作为顾问的世界里,模型可能仍然推荐不妥协的立场,但最终是由人类决定是否走这条路。
因此,在短期内,自主型代理AI可能会带来一个更加不平等的世界,只有某些公司或个人能够获得高度能力且可信的强硬AI模型。但即使每个人最终都获得了相同的工具,那也不会更好。整个社会将陷入“消耗战”的境地,AI代理将每个冲突情境推向崩溃边缘。这样的对抗本质上是危险的。就像“斗鸡”游戏一样(当两辆车加速朝彼此驶去以看谁先转弯时),总是有可能双方都不退让。当这种情况发生时,双方“都赢了”——也都毁灭。经过训练在“斗鸡”游戏中获胜的AI永远不会退让。
尽管AI可能是人类的好顾问——实时为我们提供有用、可靠的相关信息,但一个由自主型AI代理主导的世界很可能引发诸多新问题,同时削弱技术可能带来的诸多益处。
(以上内容均由Ai生成)