Gürtler 说,透明度对于开发值得信赖的 AI 至关重要
快速阅读: 据《EurActiv.com》称,本文探讨了人工智能带来的偏见、市场集中度和伦理问题。研究员保拉·格特勒强调,需建立透明度、问责制和监管,确保人工智能服务于人类而非加剧不平等。文章还讨论了人工智能对就业的影响及伦理责任,提出需在人权和可持续性框架内发展人工智能。
本文是我们的特别报道系列的一部分。人工智能创新的负面影响正在加剧虚假信息传播并损害民主。随着人工智能重塑社会,越来越多的人质疑它在道德指南针、偏见和社会影响方面的表现。人工智能创新不仅仅是关于产品本身,更是关于概念本身以及人工智能如何与人权、可持续性和民主原则相契合。在这次与Euractiv的对话中,欧洲政策研究中心(CEPS)全球治理、监管、创新和数字经济(GRID)部门的研究员保拉·格特勒探讨了人工智能的固有偏见、市场集中度和伦理困境,强调需要透明度、问责制和监管来确保人工智能负责任地服务于人类。
XZ:人工智能系统是否应该具备道德指南针?如果是,谁来决定它们遵循什么样的伦理框架?
PG:人工智能系统的道德指南针问题很棘手。当我听到“道德指南针”时,我会想到一个根据某些规范和道德原则行事的主体。然而,我也假设这个主体能够在特定情境下做出深思熟虑的判断。目前的人工智能系统还无法做出如此复杂的判断。但这并不意味着人工智能系统在道德上是无动于衷的。相反,它们的决策“指南针”源自训练数据集中的历史决策。这些历史数据在某种程度上作为道德指南针,反映了过去的某些规范和道德态度。当然,这种历史指南针也带来了一些问题。一方面,历史数据并不总是与我们今天的价值观一致。幸运的是,我们在少数群体包容和性别平等方面已经取得了显著进展。例如,人工智能开发者经常实施不同的护栏和协议来纠正历史偏见。这就是可解释人工智能(XAI)领域的重点。理想情况下,这些护栏应通过集体协商过程建立。另一个明显缺乏道德指南针的例子是那些向用户提供不良心理健康建议的聊天机器人。在这种情况下,开发者未能实施正确的护栏。像《人工智能法案》这样的法规可以帮助建立防止伤害的治理体系。
XZ:我们如何在确保人工智能持续创新和有效的前提下,防止其加剧社会不平等?
PG:人工智能至少以两种方式加剧社会不平等:通过偏见和通过市场集中度及供应链不平等。关于偏见,我提到了可解释人工智能(XAI)和人工智能公平性领域,这些领域解决了这些问题。然而,哲学家香农·瓦洛在其2024年出版的《人工智能镜像》一书中指出:“对不公平机器学习偏见的根本正确解释总是归结为我们已经存在的不公平偏见。”这意味着如果我们不解决社会不平等,人工智能将始终把这些不平等反映回来。当前主流的人工智能实践加剧了这些不平等。人工智能至少以两种方式加剧社会不平等:通过偏见和通过市场集中度及供应链不平等。关于偏见,我提到了可解释人工智能(XAI)和人工智能公平性领域,这些领域解决了这些问题。市场集中度和供应链问题突显了全球不平等。我们必须记住,人工智能不是一种脱离实体、神一般的权力;它具有稀土、微芯片、数据中心、能源消耗和人力劳动等物质现实。人工智能的物质基础设施使其陷入钴矿开采的暴力冲突和美国的干旱之中。人工智能至少以两种方式加剧社会不平等:通过偏见和通过市场集中度及供应链不平等。关于偏见,我提到了可解释人工智能(XAI)和人工智能公平性领域,这些领域解决了这些问题。在全球范围内,我们看到人工智能生产中的不平等——如肯尼亚的点击工人与美国科技巨头之间的对比——大公司、政府和军队的部署;以及被压迫的情况,例如国家边境的弱势移民、中国和俄罗斯的政治异议人士、乌克兰和巴勒斯坦人在战场上的公民在线。这些问题不能仅通过XAI或公平性指标来解决。相反,我们需要讨论何时何地开发和部署人工智能是合适的。在我看来,在任何其他领域内追求人工智能的创新和竞争力都应在人权和可持续性的界限内进行。为了确保人工智能不会加剧不平等,我们必须审视产生它的系统,并使其更加可持续、公正和平等。这些问题不能仅通过XAI或公平性指标来解决。相反,我们需要讨论何时何地开发和部署人工智能是合适的。
XZ:随着人工智能越来越多地影响到人们的生活决策,我们如何确保其推荐的透明度和问责制?
PG:透明度是问责制的重要途径。然而,仅仅透明是不够的。例如,OpenAI可以向我提供ChatGPT4.0的全部代码,但我无法理解它。这就是为什么在人工智能研究中强调可解释性和可理解性。我们需要一种特定的透明度,即提供有关人工智能系统如何运作的数据,以便普通用户能够解读人工智能模型为何以及如何表现出特定行为。可解释和可理解的透明度对于问责制至关重要,因为它使普通用户能够识别出人工智能系统做出错误或歧视性决策的情况。这就是为什么在人工智能研究中强调可解释性和可理解性。我们需要一种特定的透明度,即提供有关人工智能系统如何运作的数据,以便普通用户能够解读人工智能模型为何以及如何表现出特定行为。在讨论人工智能问责制时,我们必须记住,最终我们要追究的是设计人工智能系统及其造成任何损害的人类和公司的责任。这意味着要确保现有的缺陷产品责任框架适应人工智能时代。
XZ:我们是否有伦理责任保护工作,这是一个值得探讨的问题。为应对与人工智能相关的就业流失风险,一些人提议实施全民基本收入以保障生计,并给予个人追求有意义生活的机会。这可能是平衡自动化与伦理责任的一种方式。
PG:研究人员普遍认为,自动化可能不会像许多人担心的那样对就业产生根本性影响。在这方面的一个警示故事是经济学家约翰·M·凯恩斯,他在1930年写道《我们的孙辈的经济前景》。他非常担心快速的技术进步会导致大规模失业。近一个世纪后,我们可能拥有更多的经济机会,因为出现了凯恩斯无法想象的新职业。有人认为类似的现象也可能发生在人工智能上。我们所担心的大规模失业可能永远不会发生。然而,预计大多数行业都将实现效率提升,某些任务将被自动化。记者面临越来越大的及时高效的压力。随着人工智能生成内容和假信息的兴起,无论是无辜的社交媒体用户还是恶意行为者都在传播这些信息,记者们必须筛选的信息量巨大。例如,用于合成数据检测的人工智能工具帮助记者处理这一工作负担。然而,这引发了伦理关切。例如,Kate Crawford在其著作《人工智能地图集》中详细考察了ImageNet等图像识别数据库中存在的问题。这一分析显示,许多这些系统包含严重的(种族主义、性别歧视和污名化)分类。记者受伦理准则约束,有责任保护弱势群体。使用大型语言模型(LLMs)进行新闻生成带来了进一步的伦理挑战。例如,开发最先进模型的私营公司,特别是OpenAI,使用了版权材料来训练他们的系统。研究人员还发现,ChatGPT的训练数据包括私人信息,如电子邮件通信和来自《纽约时报》等报纸的版权内容。这些关切凸显了记者仔细选择符合专业伦理标准的人工智能工具的重要性。透明度和问责机制是必不可少的,因此欧盟的《AI-CODE》项目在开发可信的人工智能工具方面具有重要意义。
[编辑:布莱恩·马奎尔 | Euractiv倡导实验室]
(以上内容均由Ai生成)