推广负责任的 AI 标准
快速阅读: 《财经快报》消息,随着人工智能的发展,全球对其治理需求增加但未达成共识。文章提议通过国际人工智能安全研究所网络(INASI)制定标准,强调包容性与互操作性,印度的参与尤为重要。作者呼吁全球合作以确保人工智能技术惠及所有人。
本文由马丁·埃贝斯与卡齐姆·里兹维撰写
随着人工智能(AI)的不断发展,全球各国逐渐意识到制定国家及国际治理框架的重要性,以应对人工智能带来的益处与挑战。在人工智能治理中的关键问题之一是如何在促进创新与跨境贸易的同时,保护基本价值观和权利。我们认为,国际人工智能安全研究所网络(INASI)是汇聚全球技术和伦理专长、制定并采用自愿且互操作的人工智能标准的理想平台——这些标准既具有技术性又具有伦理性。尽管有效人工智能治理的需求日益受到重视,但如何实现这一目标仍未达成共识。近期的全球协议,例如联合国教科文组织的人工智能建议书和经济合作与发展组织的人工智能原则,承认了诸如人类尊严、自主权、公平性与透明度等基本价值。然而,这些框架中宽泛且模糊的语言为不同解读提供了空间,反映了不同的政治和伦理优先事项。建立全球人工智能治理规则的主要障碍包括竞争的国家利益、分歧的监管哲学、缺乏强有力的问责机制、人工智能的军事化、技术霸权以及有限的政治意愿。
标准,例如国际标准化组织、国际电工委员会和电气电子工程师学会所制定的标准,定义了产品、服务或流程的要求,从而奠定了技术采购和产品开发的基础。它们推动从研究到应用的技术快速转化,并为企业打开市场。同时,标准确保技术的互操作性,在技术应用中创造透明度和信任,并通过使用统一的术语和概念支持各方之间的沟通。标准化人工智能系统的努力正在全面展开。国际和国家级别的标准制定组织正在制定针对人工智能各个方面(包括风险管理、数据质量、算法偏差、可解释性、人工监督、网络安全和稳健性)的标准。同样地,欧盟的人工智能法案依赖于通过标准化进行共同监管的理念,以确保高风险人工智能系统——长远来看也包括大型语言模型及其他基础模型——符合法规要求。所有这些标准并非单纯技术性的。制定数据质量标准以减轻偏见不仅需要技术专长,还需要理解我们希望避免的歧视类型。同样,制定可解释性和人工监督标准涉及界定在道德与法律上可接受的透明度及监督水平。在这种情况下,国际标准化工作深刻影响着不仅是公司,还有公民和社会,通过塑造人工智能技术的伦理与法律界限。
INASI于2024年11月启动,旨在就人工智能安全达成国际共识。该倡议汇集了来自澳大利亚、加拿大、欧盟委员会、法国、日本、肯尼亚、韩国、新加坡、英国和美国的人工智能安全研究所。其目的是推动人工智能安全发展,识别风险并提出缓解这些风险的解决方案。它是国际间合作的领先论坛,旨在促进对人工智能安全的共同技术理解,以及互操作原则和全球最佳实践的发展。一个关键缺失的部分是印度的缺席,其加入将有助于形成一个真正具有代表性的国际人工智能标准制定论坛。印度在塑造全球人工智能治理方面具有独特地位。作为南方国家的领头羊,印度结合了成为最大的人工智能初创生态系统之一、第四大经济体以及全球人工智能研究与创新中心的优势。其在二十国集团峰会和全球人工智能伙伴关系等国际平台上的近期领导地位凸显了其弥合发展中国家与发达国家观点的能力。这些平台突显了印度致力于包容性数字转型和构建公平人工智能框架的承诺。政府最近宣布成立一个人工智能安全研究所,这将使印度能够投入更多专门资源来应对社会风险、设定全球标准并增强国内能力,这与全球最佳实践无缝对接。
印度参与INASI等倡议对于确保其声音在塑造基础人工智能治理原则方面处于核心位置至关重要。通过推广全球南方专家的参与,并强调人工智能在医疗、教育和农业等领域的变革潜力,印度可以倡导一种公平的人工智能发展方法。其对全球协议的支持将是其采纳的关键,反映出其独特的领导对话能力,确保人工智能技术惠及所有人,特别是那些代表性不足的地区。人工智能安全研究所将在国际标准制定中发挥关键作用。目前,全球尚未提出单一的模式。我们的建议是,国际模式必须具有包容性,确保来自全球北方和全球南方的区域都能参与到讨论中(就像G20一样),并且发展中国家和发达国家能够在平等的基础上运作。这将非常重要,以确保标准与未来法规的互操作性。
作者分别是机器人与人工智能法律协会主席,爱沙尼亚塔尔图大学IT法教授,以及The Dialogue的创始主任。
**免责声明:本文中的观点仅代表个人,不代表《金融快报》官方网站的官方立场或政策。未经许可复制本文内容是禁止的。**
(以上内容均由Ai生成)