非营利组织如何在AI应用中坚守伦理与效率平衡
快速阅读: 非营利组织采用AI需谨慎,避免系统性偏见,确保透明度、偏见缓解和问责制,AI应辅助而非替代道德判断。
José Luis Castro 是世界卫生组织(WHO)慢性呼吸疾病主任特别顾问,同时也是 Vital Strategies 的创始人兼前首席执行官。
想象一下,如果一家家庭暴力热线想要利用人工智能(AI)来简化呼叫分类,这听起来像是个好主意。但是,团队需要考虑一个关键问题:“速度是否会危及安全?”例如,如果系统基于过往通话数据训练,可能会因非英语通话解决时间较长而将其优先级降低。或者,它可能将重复来电者归类为低优先级,尽管这些来电者的风险等级实际上在上升。
在非营利领域使用 AI 时,看似提高效率的做法可能导致系统性偏见。对于建立在公平、信任和人类尊严基础上的行业来说,这开辟了一个新的伦理前沿。问题不再是非营利组织是否应该采用 AI,而是如何以正直的方式采用。
为什么 AI 并非中立
AI 算法并非空白状态,它们是基于历史数据训练的,如果不加以检查,可能会强化许多非营利组织试图打破的不平等现象。
追求更高的效率通常是采用 AI 的原因。在非营利领域,效率的提升可以表现在多个方面,比如自动化服务受理和预测捐赠者行为。然而,仅以效率作为衡量标准可能是危险的。非营利组织需对影响力、包容性和道德管理负责,如果使用不当,AI 可能会妨碍这些目标。
当 AI 决定谁先获得帮助、谁被排除在外以及谁制定规则时,这些都不是后端工程的选择,而是具有伦理后果的领导决策。
三个基础保障措施
为了确保 AI 的使用与使命和信任相一致,非营利组织领导者在采用 AI 之前必须设定伦理参数,而不是在造成伤害之后。
具体而言,他们应优先考虑以下三个基础保障措施:
– 透明度:利益相关者有权了解何时以及如何使用 AI。这意味着非营利组织领导者应提供通俗易懂的披露,公开记录工具并明确说明数据收集实践。透明度能够建立信任,促进知情参与。
– 偏见缓解:非营利组织领导者应定期审计数据集和模型输出。测试系统在不同人群和场景下的表现至关重要,如果发现差异,应暂停部署。正如热线例子所示,偏见往往是微妙且根深蒂固的。
– 问责制:AI 工具需要人工监督。非营利组织领导者应指定人员负责审查结果、回应关切并在必要时进行干预。AI 应辅助而非替代道德判断。
治理作为领导责任
AI 治理不仅是一个技术问题,也是一个战略和受托责任。董事会必须像对待财务监督或法律合规一样严肃对待 AI 采用。
具体而言,董事会应:
– 确保 AI 决策与组织的使命和价值观一致。
– 要求提供预期用途、风险和风险缓解计划的文档。
– 在试点开始前批准伦理使用政策。
– 通过定期报告监控持续实施情况。
一份 AI 伦理声明是非营利组织强大方法的重要组成部分。它可以定义负责任的使用方式、应避免的技术以及受影响社区如何参与。一些组织还可能选择成立跨职能伦理委员会,包括员工、领导、技术专家和社区代表。他们可以在部署前后共同审查 AI 工具。
将生活经验融入设计
数据不是客观的。如果训练数据仅反映机构视角或排除了最接近问题的人,那么它将复制盲点。
社区参与不应仅仅停留在同意书上。非营利组织领导者及其团队应与受影响者共同设计工具,具体做法包括:
– 让服务使用者参与塑造 AI 功能和优先事项。
– 在扩展前与社区代表一起审查输出。
– 创建反馈渠道以标记危害或偏见。
从政策到实践:伦理 AI 采用的例子
在非营利部门中,有三个关于伦理 AI 采用的例子值得一提。
首先,美国教育非营利组织 Benetech 正在创建一个“AI 驱动平台,该平台可将教学材料,特别是 STEM 内容,转化为互动性强且易于访问的内容。患有阅读障碍或视觉障碍的学生将能够阅读、聆听并就复杂数学方程和图像等概念提问。”
其次,全球非营利组织 DataKind 向其他非营利组织提供数据科学和 AI 专业知识。该组织在其网站上强调其对数据和 AI 的伦理方法。
最后,Thorn。据《洛杉矶商业周刊》2024 年的一篇文章报道,Thorn
推出了名为Safer Predict的人工智能平台。该平台旨在帮助内容托管平台(如社交媒体或视频流网站)检测其内容是否包含儿童性虐待或可能导致剥削和诱骗的情况。
在将人工智能实施从试点阶段推进到规模化阶段之前,非营利组织领导者应自问以下几个问题:
– 我们是否明确定义了问题并确认人工智能是正确的工具?
– 数据集是否具有包容性、代表性,并且经过了偏见审查?
– 受影响社区是否参与了工具的设计和目标设定?
– 该模型是否能向非技术受众解释清楚?
– 是否有明确的人类监督?
– 我们是否有简明的语言沟通给用户和合作伙伴?
– 发布后是否安排了偏见审计和审查?
– 该工具是否支持我们的公平目标?
非营利组织领导者应将人工智能实施视为一个持续的过程,随着社区反馈、法规变化和组织学习而不断进化。
在人工智能时代,领导要有目的。人工智能的采用是对价值观的考验。对于非营利组织而言,这一决策的影响远远超出了运营效率,触及信任、包容和道德服务的核心——这正是该领域存在的根本原因。
非营利组织不仅要对利益相关者或捐赠者负责,还要对那些尊严和权利需要得到保护的社区负责。当人工智能系统做出影响住房、健康、安全或法律保护等方面的决定时,这些选择反映了伦理承诺或缺乏伦理承诺。
人工智能治理必须是主动和有原则的。高管和董事会需要将人工智能监管视为战略风险管理及社区信任管理的一部分。最重要的是,最直接受影响的人不仅应受到保护,还应被赋予权力,参与到技术本身的塑造中来。
在智能系统时代,是非营利部门展示何为智能伦理的时候了:这种伦理不是建立在速度或规模上,而是建立在关怀、责任和共享人性之上。
福布斯非营利理事会是一个仅限邀请加入的组织,面向成功非营利组织的首席执行官。
我符合条件吗?
(以上内容均由Ai生成)