未能获得公众信任可能会破坏政府的 AI 议程
快速阅读: 据《PublicTechnology.net》最新报道,英国欲成为全球AI领导者,却面临公众信任危机。政府需加强透明度、同理心和一致性,以建立公众信心,否则可能阻碍AI在公共服务中的应用,甚至影响国家AI战略的实施。信任是AI项目成功的关键。
政府的目标是在欧盟和美国之间的人工智能监管路径中找到平衡点。然而,根据福雷斯特公司的分析师恩扎·伊安诺波洛的说法,还需要更多关注公民。
英国正在推进一项雄心勃勃的计划,将人工智能融入其公共部门,并致力于成为全球人工智能领域的领导者。作为这一努力的一部分,英国也在尝试定义一种“第三条道路”的人工智能政策,走在一些人认为过度监管的欧盟和另一些人认为监管不足的美国之间。英国政府的人工智能实施手册正是这一理念的体现。
尽管这些举措承诺推动创新并现代化政府运作,但仍有一个关键障碍可能在愿景完全展开之前就使其脱轨:公众信任。英国政府已经表现出渴望在公共服务中推动人工智能创新,例如部署像Anthropic的Claude这样的大型语言模型以改善公民互动,并探索人工智能在政策制定、供应链管理和科学研究等领域的应用。这些举措是更广泛推动英国成为公共部门人工智能采用中心的一部分。
然而,公众信任极为脆弱。根据福雷斯特的全球政府信任指数,英国公民对政府的整体信任度仅为42.3分(满分100)。这种怀疑使得政府在将人工智能融入直接影响公共服务乃至人们生活的系统时,无法承受任何失误。
忽视信任所带来的风险
公共部门采用人工智能存在固有的风险,包括透明度、伦理使用以及意外后果的挑战。英国政府面临着一个独特的两难境地。它转向优先考虑人工智能安全而非安全性,通过将人工智能安全研究所更名为人工智能安全研究所体现了这一点,使重点更加集中在网络安全问题上。虽然网络安全无疑很重要,但减少解决人工智能社会影响(如偏见和不平等)的重点,最多会疏远公民,最坏的情况则会严重伤害他们及其权利。
公共部门采用人工智能存在固有的风险,包括透明度、伦理使用以及意外后果的挑战。政府最近决定不签署促进伦理人工智能发展的国际协议进一步模糊了其传达的信息。
42.3 英国在全球政府信任指数中得分100分中的分数
25% 信任政府处理个人数据的英国公民比例——相比之下苹果公司为35%
22 英国政府人工智能手册中提到“信任”的次数——相比之下提到“风险”的次数为176次
当与这些行动相比时,缺乏全面且可信赖的框架可能会加深公众的怀疑。更糟糕的是,政府在一个许多公民比信任政府更信任苹果等私营公司保护其数据的国家中运营。
信任不仅是一个抽象的概念,更是成功实施人工智能应用的根本驱动力。福雷斯特的信任模型确定了具体的杠杆——包括透明度、同理心和一致性——这些都是培养公众信心所必需的。高信任环境不仅能让公民支持政府倡议,还能带来社会和经济利益。根据福雷斯特的说法,被视为透明的机构比被视为不透明的机构在犯错后更容易被原谅,可能性高出四倍。这一见解凸显了英国政府面临的挑战。
当信任水平低时,公众反对情绪增加,削弱政府创新的能力。但当信任水平高时,公民更愿意接受与人工智能采用相关的实验和潜在错误。信任不仅是一个抽象的概念,更是成功实施人工智能应用的根本驱动力。福雷斯特的信任模型确定了具体的杠杆——包括透明度、同理心和一致性——这些都是培养公众信心所必需的。高信任环境不仅能让公民支持政府倡议,还能带来社会和经济利益。
透明度是建立信任的核心。尽管欧盟的人工智能法案对英国没有约束力,但它为建立人工智能使用案例的风险类别提供了一个有用的基准。相比之下,英国当前的指导方针未能明确哪些行为能够增进信任,哪些行为可能破坏信任。例如:
信任不仅是一个抽象的概念,更是成功实施人工智能应用的根本驱动力。福雷斯特的信任模型确定了具体的杠杆——包括透明度、同理心和一致性——这些都是培养公众信心所必需的。高信任环境不仅能让公民支持政府倡议,还能带来社会和经济利益。
英国的人工智能手册提到了22次信任,但在定义增强公民信心的具体策略方面做得不够。信任不仅是一个抽象的概念,更是成功实施人工智能应用的根本驱动力。福雷斯特的信任模型确定了具体的杠杆——包括透明度、同理心和一致性——这些都是培养公众信心所必需的。高信任环境不仅能让公民支持政府倡议,还能带来社会和经济利益。
风险管理占据了手册的主要部分,其中“风险”出现了176次,但缺乏缓解公众担忧的解决方案。如果缺乏关于人工智能决策如何作出或人工智能系统如何受到监管的透明度,公民很可能反对未来的实施,特别是在涉及公共福利的情况下,比如医疗保健或社会服务。
对于高风险的人工智能应用,如医疗或执法中的预测分析,同理心也成为推动信任的重要因素。公民需要看到政府认识到人工智能使用对其生活带来的风险和影响。例如,实施用于访问政府服务的人工智能聊天机器人时,应明确告知公民其数据将如何处理和保护。
一致性是信任的另一个支柱。如果缺乏清晰、可预测的AI治理政策,公民更可能认为政府的行为是随意或临时的。目前,公共部门和私营部门在AI采用方面的差异进一步混淆了公众的看法。只要私营企业在较少的限制下运营,开发缺乏严格道德监督的AI系统可能会产生质量较差的模型或带有偏见的算法。这些问题会产生连锁反应,损害公众对AI的整体信任,并削弱政府努力现代化公共部门的努力。
目前,公共部门和私营部门在AI采用方面的差异进一步混淆了公众的看法。值得信赖的框架
为了实现其人工智能目标,英国政府必须采取以公民为中心的方法,在人工智能实施的每个阶段都强调信任建设。以下是它可以如何开始:
– **采用全球认可的人工智能治理标准**以补充现有的人工智能手册。与欧盟人工智能法案等框架保持一致可以提供风险类别和伦理指南的明确定义,为公务员提供更大的清晰度和一致性。
– **透明且一致地沟通**。每个新的AI计划都应包括对其目的、好处和局限性的公开解释,以及问责措施。
– **在关键计划内试点信任建设措施**。像AI驱动的公共服务聊天机器人这样的高影响力项目应作为测试平台,纳入注重信任的元素,如明确的隐私保护和公民反馈回路。
– **审慎地利用合作伙伴关系**。虽然与Anthropic等人工智能领导者合作可以放大创新,但确保这些合作以可见的伦理标准和公众问责为基础至关重要。
人工智能提供了巨大的机遇来改变政府服务并提升公民的生活,但代价是什么?对于英国政府来说,用人工智能颠覆过时的系统可以恢复公众对其交付有意义成果的信心。然而,如果不优先考虑信任,可能导致公众的反对、对AI驱动政策的有限接受度以及最终偏离雄心勃勃的国家人工智能议程。
在公共服务中采用人工智能不仅是技术层面的任务,更是社会层面的任务。为了蓬勃发展,政府必须通过在其人工智能战略和执行中倡导透明度、同理心和一致性来弥补其信任赤字。
信任不仅仅是流行词或目标;它必须成为每个AI项目的根基。
(以上内容均由Ai生成)