监管复杂和不确定的 AI 技术
快速阅读: 据《美国企业研究所》最新报道,本文探讨了属性替代的认知偏差及其在技术和政策中的影响。指出决策者常以旧规管新技术,如早期对机车和AI的不当监管,造成社会未能充分受益且学习不足。建议监管应基于对AI复杂性的理解,而非恐惧,强调经验学习的重要性。
一种常见的认知偏差,其中决策者在不知不觉中用一个更简单、相关的替代问题取代了复杂的问题,这一现象最早由丹尼尔·卡尼曼和肖恩·弗雷德里克于2002年描述。属性替代的概念解释说,当面对复杂的判断(目标属性)时,有些人会无意识地只应对更简单的问题(启发式属性),而没有意识到这一点。这个过程是自动的,通常不会被个人察觉,从而导致系统性的认知偏差。
同样地,政策制定者倾向于根据他们与相关遗留系统的经验来监管新技术的趋势,在最近的历史中变得明显。新的宽带技术跨越多个基础设施运行,却被当作固守基础设施垄断的传统电话系统进行监管——那些原本会在传统电话系统中起作用的不幸的拆分和接入规则,在宽带领域显著抑制了欧盟竞争对手光纤和电缆基础设施的投资。美国避免了这种命运,仅仅是因为不受管制的有线电视运营商已经存在真正的竞争。随后决定不对信息服务绑定传统的电话监管遗产成为解决方案。
回顾更早一些,并考虑旨在保护人们免受新技术危险的法规,我们发现对新兴通用目的技术(GPT)——例如机车(自驱动车辆)——的监管响应。英国开创性的《1865年机车法案》要求一人(图1,来源:Look and Learn)在机车前方行走以示警告。其结果是,机车(随后是无马车或汽车)的速度不能超过人步行的速度。该法案于1896年被废除,当时蒸汽动力和内燃机动力的车辆已经在路上行驶了一段时间。如图1所示,佛蒙特州在1894年通过了一项类似的红旗法,但仅两年后就被废除了。
这些法律的问题在于,马和马车拥有现有的道路使用权,监管机构无法侵犯,包括快速行驶。但新的机车技术可以被监管,因此实施了监管机构原本希望强加给马车的规则,即限制速度以减轻失控的快马对行人造成的伤害。然而,红旗法在三个方面失败了。首先,它们阻止了社会从新技术中受益——在这种情况下,更快的旅行。其次,它们监管了一个在机车中比在马和马车中发生的可能性小得多的问题;与马不同,马车有自己的思维,机车失控的概率要低得多。第三,这些规定塑造了道路使用者对新技术的看法和行为。他们在持旗人的严格监管下形成了对机车的理解。当规则被废除时,他们不知道机车能跑多快,也没有及时采取规避行动。由于这些法律阻碍了必要的学习,更多的人受到了伤害。
同样,在急于监管新的人工智能(AI)——包括像ChatGPT和Llama这样的生成式预训练转换器(AI GPTs)时,存在真正的风险。决策者正在用他们对约束良好的旧式人工智能(GOFAI)大数据工具的理解来替代治理AI GPTs应用所需的必要理解——这些工具在计算工程精度提高的风险管理方面表现良好。这些AI GPTs与同样复杂的人类商业和社会系统交织在一起,即使是应用程序开发人员和AI本身也无法解释它们如何以及为何得出某些结论,这种情况是前所未有的。
将AI GPTs视为GOFAIs进行监管会引发红旗法的三种风险:新技术的新效益将丧失,潜在危害不一定相同,人们的在新规则下的行为也会改变。AI GPTs创造的新世界无疑是不确定的,因此监管应该以对其复杂性和不确定性知识的指导为基础——抵制急于监管的冲动,而是通过新事物的经验而非对旧事物的恐惧来学习。
了解更多:
– **中国的AI战略:采纳而非通用人工智能**
– **美国的AI立法可能需要多少成本?**
– **最好的AI法律可能是已经存在的法律**
– **AI的新兴悖论**
(以上内容均由Ai生成)