问答:法律专家讨论人工智能如何由“设计公平”框架管理
快速阅读: 《科技探索》消息,宾夕法尼亚州立大学的德里克·林提出了一种“设计公平性”框架,旨在通过融合公平原则和社会价值观来治理AI技术,保护边缘化群体。该框架主张在AI全生命周期中贯彻公平原则,以减少偏见和不平等。林博士认为,这种方法能促进技术创新并确保AI符合社会公平价值和法治,同时呼吁进行公平审计和法治评估。
图片来源:Pixabay/公共领域CC0 在人工智能(AI)从创建到部署和实际应用的监管方法方面,国际上存在差异。宾夕法尼亚州立大学迪金森法学院研究与创新副院长德里克·林,H. 拉迪二世蒙塔古法律主席及宾夕法尼亚州立大学计算与数据科学研究所(ICDS)联合聘用人员,提出了一种“设计公平性”框架,以更好地治理这项技术,并保护边缘化群体免受潜在伤害。该文章于1月27日发表在《杜克科技法律评论》上。
据林博士称,负责任地治理AI对于最大化其益处并最小化潜在危害至关重要,这些危害对代表性不足的个体影响尤为严重。治理框架有助于将AI开发与特定区域内的社会价值观和伦理标准对齐,同时也有助于监管合规并促进行业标准化。林博士同时也是联合国秘书长高级咨询小组关于人工智能的顾问成员,在发表的文章中他也讨论了这一需求以及社会负责任的AI治理如何影响边缘化社区。
林博士在以下问答中谈到了AI治理及其提出的框架。
**什么是社会负责任的AI?为什么它很重要?**
在AI方面做到社会负责任意味着以合乎道德、透明且有益的方式开发、部署和使用AI技术。这确保AI系统尊重人权,维护公平,并不延续偏见或歧视。这种责任延伸至问责制、隐私保护、包容性和环境考虑。这是因为AI对个人和社区有重大影响。通过优先考虑社会负责任,我们可以减轻诸如歧视、偏见和隐私侵犯等风险,建立公众信任,并确保AI技术能够为世界做出积极贡献。通过将社会负责任纳入AI治理,我们可以在保护所有利益相关者权利和利益的同时推动创新。
**您如何解释“设计公平性”方法在AI治理中的应用?**
设计公平性意味着我们应该在整个AI生命周期中融入公平原则,以正义的视角和AI如何影响边缘化社区。AI有可能改善获得正义的机会,特别是对边缘化群体而言。如果一个可能不会说英语的人正在寻求帮助,并且拥有具有聊天机器人访问权限的智能手机,他们可以输入母语问题并获得开始所需的一般信息。但也存在加剧不平等的风险,我称之为算法鸿沟。在这种情况下,算法鸿沟指的是获得AI技术和了解这些工具教育的差异。这包括个人、组织或国家在开发、实施和受益于AI进步方面的能力差异。我们也需要意识到数据引入的偏见,即使这些偏见是无意的,或者是由训练这些系统的人员造成的。
**这种方法在AI治理中的目标是什么?**
这项工作的总体目标是通过提出一种以公平为中心的方法来从被动治理转向主动治理,该方法包括透明度和定制化监管。该文章旨在解决AI系统中的结构性偏见和现有框架的局限性,倡导一种平衡创新与健全保障的综合策略。研究探讨了AI如何既能改善获得正义的机会又能巩固偏见。这种方法旨在为政策制定者和法律学者提供一份路线图,以应对AI的复杂性,同时确保技术进步符合更广泛的社会公平价值和法治。
**为实现更公平的AI方法,建议采取哪些解决方案?**
部分解决方案在于公平审计。我们如何设计确保在算法发布前进行检查和平衡?选择数据的人可能会有偏见,这可能会加剧不平等,无论偏见是通过种族偏见、性别偏见还是地理偏见表现出来的。一种解决方案可能是雇佣一群具有不同偏见意识的人,或者让第三方审查系统实施情况并提供反馈以改进结果。该文章还探讨了法治规范性影响的评估,这涉及评估我们当前的法律框架是否充分应对这些挑战,或者是否有必要进行改革以在AI时代维护法治。
**还有哪些观察进一步证明了以公平为中心的AI治理的重要性?**
9月份,美国和欧盟(EU)签署了《人工智能框架公约》。这项AI条约是建立全球框架的重要里程碑,以确保AI系统尊重人权、民主和法治。该条约规定了一种基于风险的方法,要求对医疗保健和刑事司法等敏感领域的高风险AI应用进行更多监督。该条约还详细说明了美国、欧盟、中国和新加坡在AI治理方面的不同方法。美国更侧重市场导向;欧盟更侧重人权保护;中国遵循指令经济模式;新加坡则采用软法模式。该条约强调了全球合作的重要性,以应对不同AI治理方法带来的挑战。我提出的框架在整个AI生命周期中融入了正义、公平和包容性原则,这与条约的总体目标相一致。尽管设计公平性框架不特别关注实施后的保护措施,但它强调AI应推进边缘化社区的人权,并应有更透明和保护性的审计。
更多信息:《社会负责任的AI治理决定因素》,dltr.law.duke.edu/2025/01/27/d … sible-ai-governance/
(以上内容均由Ai生成)