AI威胁源自国家监管缺失
快速阅读: 过去一年,马斯克等AI专家对AI潜在威胁发表评论,但忽视了国家作为最大威胁的存在。AI发展受国家支持,可能增强国家控制力,也可能赋予社会更多力量,需警惕国家滥用AI的风险。
在过去一年里,许多人工智能领域的权威人士,如埃隆·马斯克、约书亚·本吉奥、杰弗里·辛顿、杨立昆、加里·马库斯等人,对人工智能潜在的危险性发表了许多评论。然而,这些人可能并不是最合适的听众,因为人工智能的威胁本质上是政治性的。大多数科学家和技术专家尽管聪明,但缺乏政治训练,通常不具备思考政治问题的思维方式,除了对其行业监管影响的关注。没有人期望发明家能够完全理解其发明的政治和社会影响。
这种盲点解释了为什么这些人工智能专家在谈及人工智能威胁时,常常显得天真且缺乏想象力,比如“我们需要敦促公司暂停人工智能研发”、“政府必须参与其中”、“人类可能会利用人工智能伤害他人”、“我们不希望人工智能落入坏人之手”等。有时,人工智能的潜在威胁被低估,有时又被夸大。所有这些评估的共同点在于,它们从未认识到最糟糕的“坏演员”——国家的存在。
对于这些人工智能科学家来说,国家与社会之间的根本区别并不存在;他们总是以集体的“我们”来管理人工智能的潜在威胁。这正是默里·罗斯巴德在《国家解剖》(1974年)中明确警告的:“随着民主的兴起,国家与社会的认同感进一步加深……‘我们’这个有用的集体词汇掩盖了政治生活的现实。”
虽然在当今国家干预主义和裙带资本主义盛行的时代,区分国家与社会变得困难,但这却是必不可少的。按照韦伯的标准定义,国家是一个在特定领土内成功垄断合法使用武力的人类共同体。因此,国家本质上与社会其他部分截然不同。路德维希·冯·米塞斯在《自由与财产》中警告说:“政府本质上是否定自由的。”换句话说,当国家强制力增加时,自由就会受到损害。尽管企业可以通过影响政府获得优待,当法律可以被扭曲时(这种情况经常发生),谁掌握权力却一目了然。必须摒弃“仁慈国家”的神话。
从这个角度来看,对于所有新技术,都需要问一个关键问题:国家在多大程度上控制着这项技术及其发展。在这方面,人工智能的表现不佳,因为大多数主要的人工智能公司(如谷歌、微软、OpenAI、Meta、Anthropic等)、其创始人及其核心技术自创立之初就得到了美国政府的资金、研究资助和基础设施的重要支持。DARPA(国防高级研究计划局)和NSF(国家科学基金会)资助了使神经网络可行的早期研究(即所有主要人工智能实验室的核心技术)。
这种演变并不令人意外,因为国家自然会试图利用一切可能的手段来维持和扩大其权力。罗斯巴德再次指出:“国家最害怕的当然是对其自身权力和存在的根本威胁。” 因此,人工智能的威胁应从两个方面来看。一方面,国家可以积极利用人工智能增强其对社会的控制;另一方面,人工智能也可能对国家构成挑战,增强社会的经济和政治力量。
因此,评估人工智能的威胁时,需要考虑其对国家与社会之间不确定的力量平衡的潜在影响,或者更具体地说,对统治少数与被统治多数之间关系的影响。这种关系取决于谁最能从新的权力工具中受益,例如印刷术、现代银行、电视、互联网、社交媒体和人工智能。在某些情况下,国家利用这些工具增强了控制力,但在其他情况下,这些工具可能赋予社会更多力量。例如,电视作为媒介可能强化了统治少数的地位,而社交媒体则正在增强多数人的政治影响力,削弱统治少数的权力。同样的问题也适用于人工智能:人工智能会增强国家的权力,还是增强社会的权力?
正如前面所述,国家很早就介入了人工智能领域,在理论和初创阶段就开始参与。今天,彼得·蒂尔的帕兰提尔公司正向美国政府机构提供人工智能分析软件,以增强其监控和控制民众的能力,建立中央化的全国公民数据库(包括可怕的“预测警务”)。Anthropic也在与帕兰提尔和亚马逊网络服务合作,为美国情报和国防机构提供其人工智能模型的访问权限。Meta也将其生成式人工智能模型提供给美国政府。理论上,这些举措可能会提高政府的效率,但也可能增加对个人自由的威胁。令人担忧的是,这种发展在人工智能行业的记者和专家中被视为“正常”,并未引起任何关注。
从社会的角度来看,人工智能最终将带来企业结构的根本变革和生产力的大幅提高,远超互联网带来的信息革命。政治后果可能是显著的,因为人工智能可以为每个人提供个人研究助手,简化获取知识的途径,即使在有门槛的领域也是如此。人工智能可以接管常规任务,为更高价值的任务腾出时间,包括政治参与。例如,人工智能可以简化对政府活动的理解和监督,如总结立法内容、分析预算和支出数据、实时核实声明,从而缩小政府与普通公民之间的知识差距。
当然,如果获取人工智能的渠道受到限制,社会的政治赋权可能会受阻。如果国家在人工智能领域占据优势,它可以通过监控、操纵甚至更恶劣的方式削弱持不同政见者和独立记者,特别是在国家对其宪法限制感到松懈的情况下。不幸的是,这种情况不仅在美国存在,而且在大多数国家和超国家组织中也是如此。
未来的人工智能,如通用人工智能、代理型人工智能和物理人工智能,将进一步凸显人工智能威胁的讨论。这些发展将增加国家侵犯权利的可能性,同时也增加了个人和社区层面的机会和可能的应对措施。未来是否会有更多的开放、去中心化和加密的人工智能功能将至关重要。虽然未来仍充满不确定性,但这里提出的政治框架仍然有效。
涉及人工智能的政治利害关系远远超过开发人工智能的数据科学家所认识到的程度。人工智能的威胁与其他新技术一样,如果被国家恶意使用,同样具有威胁性。因此,公众不仅要了解人工智能并拥抱其潜力,还要将其置于争取自由的政治斗争的大背景下看待。
(以上内容均由Ai生成)