联合国:人工智能治理和国际专家组必须优先考虑人权
快速阅读: 据《第十九条》称,2023年2月18日,ARTICLE 19参与了联合国关于人工智能(AI)的磋商,建议在AI治理体系中应用四项原则:多方利益相关者参与、保护人权、避免重复现有体系、保持独立性。ARTICLE 19还建议科学小组应独立、多学科,全球对话应促进科学理解和知情决策,并审查AI供应链中的权力集中问题。
2023年2月18日, ARTICLE 19参与了联合国关于人工智能(AI)独立国际科学小组和全球AI治理对话的磋商。在磋商中, ARTICLE 19的联合国负责人安娜·奥斯特林克推荐了四项基本原则,适用于该小组和对话。以下是原则和贡献内容。尊敬的各位代表,感谢这次为这些磋商做出贡献的机会。我是安娜·奥斯特林克,代表 ARTICLE 19发言,这是一个从地方到全球的人权组织,专注于言论自由及相关权利。负责任、安全、可问责、透明且基于人权设计的AI是我们的共同优先事项。 ARTICLE 19建议在小组和对话中应用四项基本原则。
首先,建立多方利益相关者模式的AI治理体系。所有利益相关方,包括人权行动者和受AI应用影响最大的社区,必须能够有意义地参与决策过程。
其次,在整个AI技术生命周期中保护各项人权。言论自由至关重要,同样重要的是非歧视权和性别平等权。
再次,避免与联合国系统内外现有的AI治理体系重复。AI治理需要一种全面且全球性的方法,将一系列举措整合成符合国际法、人权和可持续发展目标的连贯方法。
该小组和对话应纳入现有的联合国结构,并利用联合国的专业知识,特别是来自人权事务高级专员办事处(OHCHR)、国际电信联盟(ITU)及其他相关联合国机构的知识。
对于独立国际科学AI小组, ARTICLE 19建议:它应完全独立,不受政治影响。重点关注AI科学现状,基于对技术设计、开发和应用的研究和证据,包括人权风险评估。由涵盖多学科领域的科学家组成,包括人权专家,具有平衡的地理和性别代表性。向对话和其他相关AI治理框架报告,促进对AI技术影响的科学理解,并使基于知识的决策成为可能。
对于全球AI治理对话,我们建议提供一个空间来考虑实际步骤以利用AI机遇并解决AI挑战,尤其是对人权的不利影响。向对话和其他相关AI治理框架报告,促进对AI技术影响的科学理解,并使基于知识的决策成为可能。
该小组和对话应审查AI供应链中多个组成部分资源和权力集中的情况,包括计算能力、数据、技术专长和财政资源,并考虑如何缓解这种权力集中,以防止全球生态系统中的不对称被强大的一方滥用,从而损害脆弱社区的权利。
最后,我们呼吁在未来几周内进行透明和包容的过程,各国讨论机制细节,包括在联合国网络电视上直播成员国磋商,并组织进一步的虚拟利益相关者磋商,如同今日。
谢谢。
(以上内容均由Ai生成)