AI治理及其必要性
快速阅读: 据《JD Supra》最新报道,人工智能治理的重要性及其潜在风险备受关注。本文探讨了训练数据、隐私、偏见、透明度等问题,强调了治理框架(如欧盟法案、NIST、ISO、OECD)的作用,以及跨国、国家、行业和组织层面的治理策略。确保AI的安全性、公平性和合规性是关键。
人工智能治理涉及数据隐私、偏见、透明度等,需通过跨国、国家、行业及组织层面的框架确保其安全性与合规性,如欧盟法案和NIST框架。
在2023年3月,埃隆·马斯克、史蒂夫·沃兹尼亚克等其他技术专家签署了一封公开信,呼吁暂停训练强大的人工智能模型,直到制定出更强大的人工智能治理法律为止。两个月后,OpenAI(ChatGPT背后的公司)的首席执行官山姆·阿尔特曼在美国国会作证,讨论了人工智能的风险,并呼吁实施更为严格的人工智能监管。尽管立法者和技术利益相关者就应施加多少监管以及其形式进行争论,但所有人都同意一点:人工智能治理是重要的,完全缺乏它可能会带来严重后果,从侵犯隐私权到不道德的商业行为。那么,什么是人工智能治理?它又如何影响你呢?让我们来了解。
但在那之前……
**什么是人工智能治理?**
人工智能技术广泛应用于各种应用和行业中,以自动化任务、分析数据并预测结果。人工智能可以节省时间、降低成本,甚至减少手动工作引入的错误。然而,当我们把任务和决策交给人工智能时,有必要确保其使用符合道德标准、遵守法规,并保护用户隐私。
人工智能治理是指导开发和部署符合道德和负责任的人工智能系统的综合框架,包括流程、原则和政策。它确保这些系统透明、可解释且可问责。它还提供指南,以最小化风险并创建不存在可能对人类造成伤害的偏见和错误的人工智能模型。
为了理解为什么人工智能治理是必要的,我们需要了解人工智能模型是如何创建和训练的,以及可能出现的数据隐私问题。
**人工智能模型训练及其对数据的依赖**
人工智能如何获得回答问题、完成任务和做出决策的能力?首先,人工智能模型需要接受大量数据的训练。它们利用输入的数据并将输出与样本输出相对应(例如,一张具有某些边缘、形状、颜色和相似特征的照片=一张狗的照片)。这种训练使模型能够从已见过的数据中概括出来,并对未见过的数据进行标注和预测。
人工智能模型训练及其对数据的依赖:
– 你需要多少数据来训练一个人工智能模型?这取决于具体情况。
– 大型语言模型(LLMs;如Chat GPT)使用数十亿个数据点和许多参数。
– 然而,较小的模型可能只需要几千个甚至几百个数据点,具体取决于应用场景的范围。
– 就像人一样,一个人工智能模型的学习也依赖于三个V:数量、多样性和速度。
– 数量,因为它们拥有的信息越多,对主题的理解就越全面。
– 多样性,因为不同类型的信息有助于它们对主题形成更深入的理解。
– 速度,因为信息生成、处理和分析得越快,模型在快速实时决策方面就越出色。
有趣的故事:当视觉CAPTCHA测试出现时,人们说这只是为了让谷歌机器人知道那些图片是什么。为什么?因为CAPTCHA要求人类点击包含,比如说,摩托车的一系列图片。然后一个虚拟的思维会观察结果并学习摩托车(或交通灯、达克斯猎犬、树木)看起来像什么:反复查看输入和输出,直到能够复制它们。
但还有更有效的方法来训练机器人。人工智能的一个局限性是,它的好坏或准确性只取决于它所接受的训练数据。它可以基于这些数据提供信息,但输出并不是“思考”,就像人类大脑那样。然而,人工智能正在迅速发展,其输入基础上的输出质量和复杂性正在提高。
在为人工智能模型提供训练数据时,其中一个问题就是它会引发某些风险——特别是在数据隐私方面。
**人工智能训练中的数据隐私风险**
训练数据问题在大多数情况下,人工智能模型是在现有的数据库或互联网上的信息上进行训练的。最大的隐私风险是一些数据可能是个人的、可识别的或敏感的。如果数据主体没有同意他们的数据用于人工智能训练(他们很可能没有),那么你的行为可能是不道德的且不符合规定的。
**问题1:数据主体未提供知情同意**
数据隐私法的一项要求是组织只能在获得知情同意的情况下收集消费者的个人信息。“知情”的部分包括传达收集数据的目的。
**问题2:数据主体未对所有用途提供知情同意**
如果某人同意他们的个人信息用于目的A但不同意用于目的B,那么根据《通用数据保护条例》(GDPR)和《加州消费者隐私法》(CCPA)等法律,你必须尊重他们的偏好。例如,消费者可能同意将其社交媒体数据用于定向广告目的,但不同意将其数据抓取并纳入人工智能训练集。
**问题3:通过使用个人信息回应导致隐私泄露**
使用人们的个人信息来训练大型语言模型(LLMs)带来了另一个风险:模型可能会在回应中披露这些信息。如果约翰·多伊的地址和电话号码被包含在ChatGPT的训练数据中,那么如果有人询问,有什么能阻止它泄露这些信息呢?
当然,如果你遵循数据隐私最佳实践,这些数据将被剥离任何标识符。然而,问题通常发生在模型训练者不了解隐私法律,或者在不知情的情况下使用了个人信息。
因此,关于训练数据有三个主要担忧:
– 训练数据中可能混入消费者的个人信息;
– 消费者可能没有同意他们的个人信息用于人工智能模型训练;
– 人工智能工具可能在回应中披露人们的个人信息。
如果隐私专业人士参与建立人工智能治理并明确这些风险,这些问题都是可以避免的。
**偏见和歧视风险**
当人们第一次意识到计算机的力量时,很容易认为它们是无所不知且强大的。但实际上,计算机只是机器,因此它们的输出仅与其所处理的输入一样可靠。这通常被称为“垃圾输入,垃圾输出”,即GIGO。
GIGO始终是正确的,即使在人工智能模型中也是如此。它们的结果仅与训练它们的材料一样好(或差)。人工智能和GIGO风险的一个例子是微软的Tay聊天机器人。这个聊天机器人原本应该从Twitter上的实时互动中学习。然而,用户决定向它输入粗俗语言和反社会互动。在发布后的短短几个小时内,Tay开始模仿这种不良行为,聊天机器人不得不被关闭。
GIGO,在现实生活中和实时中发生。这是人工智能和用户生成内容风险的一个极端例子:用户和社会存在偏见,人工智能模型可以吸收并内化固有的偏见和成见。一些示例偏见包括:
– 训练数据偏见,当用于训练人工智能模型的数据偏向某一特定群体或代表性不足时;
– 算法偏见,由编程错误或开发人员引入反映自身偏见的逻辑决定;
– 认知偏见,当开发人员的训练数据根据自己的偏好加权或选择时,可能无意中引入。
如果模型吸收了这些偏见并在某些决策中使用,它将无法提供准确的结果。例如,多年来医学研究主要针对白种人,其他群体代表性不足。如果这些试验的数据被用来训练人工智能以做出医疗决策,可能会对代表性不足的群体产生不准确的诊断。这可能导致危险,甚至可能致命。
同样,人工智能偏见可能导致歧视性的招聘决定。亚马逊不得不停止使用其人工智能招聘工具,因为很明显该工具更倾向于男性而不是女性。在某个阶段,谷歌广告更频繁地向男性展示高薪高管职位的列表,而非女性。研究表明,预测性警务工具可能对看起来某种方式、穿着某种方式甚至走路某种方式的人存在偏见。这些都是偏见如何影响预测性人工智能结果的一些例子,并且会对真实的人们的生活产生负面影响。
**推断和预测的风险**
正如Osano首席执行官Arlo Gilbert在他的书《隐私内幕》中所解释的那样,一个人工智能模型中的单一个人信息可能不会造成伤害。但是,将多个信息片段组合在一起并基于假设预测结果,事情可能会变得非常糟糕。
人们常常认为他们没有什么可隐瞒的,因为一条信息是无害的。但是,由人工智能上下文化的多条信息?那么风险就变得真实了。例如,人工智能可以拼凑看似无关的信息,比如你的位置、购买记录和日期时间戳,并错误地推断(在内在偏见的帮助下)你犯下了罪行。或者使用非个人信息来推断你的医疗状况、宗教信仰或性取向,这些信息可能是不真实的或你不希望披露的。
由于这种可能性,确保人工智能以合乎道德和非侵入性的方式使用至关重要。
**缺乏透明度带来的风险**
我们之前已经提到过有关训练数据的同意问题。假设你想在使用个人数据训练人工智能模型之前获得用户的同意。知情同意需要对为什么需要信息、如何使用以及是否依法处理有完全的清晰度。这是每项隐私法律的基础。
模型训练是一种数据处理形式。如果数据主体不清楚他们的数据将用于什么目的,他们就不能给予知情同意。如果数据主体不能给予知情同意,你就越过了伦理数据实践的界限,并违反了所有现行的隐私法律。
而且,与其他数据处理方法不同,纠正人工智能模型中的数据处理和弥补违规行为并非易事。得不到知情同意会让你付出经济代价。但同样重要的是,它会让你失去信任,这在长期内可能更具破坏性。
**违反数据最小化原则**
根据隐私设计的原则,只应收集最低限度的信息以实现特定目的,以保护个人身份和隐私,并减少保护和管理这些数据的负担。这一原则现在被纳入了几项州级数据隐私法律,包括《马里兰州在线数据隐私法》,该法律对数据最小化有严格的要求和处罚。
然而,我们也看到数据量在训练人工智能方面是一个好处。如果收集更多数据对公司训练自己的人工智能模型有利,为什么还要限制收集呢?
不幸的是,无差别地收集数据可能会影响消费者隐私,这就是为什么需要人工智能治理。
**美国人工智能治理框架和法律**
当显而见生成式人工智能工具将得到更广泛应用时,美国很早就尝试定义一个人工智能框架。该国首个关于人工智能的行政命令于2023年底发布,重点在于安全、安全和值得信赖的人工智能开发。虽然后来已被特朗普政府撤销并取代,但该命令的八项指导原则和优先事项代表了其他旨在推动和发展人工智能开发和使用框架。
**美国人工智能治理框架和法律**
– 人工智能必须是安全和可靠的。
– 它应该促进创新、合作和竞争。
– 它不应该对人类工作者的工作和工作场所产生有害影响。
– 它应该推进公平和民权。
– 它应该保护消费者、患者和学生。
– 它不应该损害消费者隐私。
– 它应该由政府负责任地部署。
– 它应该通过与其他国家合作实施关键标准在全球范围内开发。
然而,截至目前,美国尚无联邦层面的人工智能法律。不过,过去两年内,像科罗拉多这样的少数几个州通过了人工智能法律,这些法律可以作为未来法律的蓝图。
**欧盟人工智能法案及其风险类别**
与此同时,欧洲联盟的《欧盟人工智能法案》于2024年8月生效。该法律根据人工智能模型对风险的大小分类,以确定需要何种程度的治理,并包括一个不可接受风险的类别。该法案与《通用数据保护条例》(GDPR)保持一致,以保护消费者隐私并鼓励人工智能模型开发的透明性。
与数据隐私法规一样,该法案适用于在欧盟内部构建的人工智能系统,但其影响也延伸至欧盟边界之外,涵盖面向或服务于欧盟居民的系统。
**欧盟人工智能法案及其风险类别**
虽然《欧盟人工智能法案》允许开发者自行确定其人工智能模型的风险类别,但如果法院认定他们误分类了模型,则他们将承担责任。根据《欧盟人工智能法案》的四个风险类别如下:
– 极小或无风险:这些是低风险的人工智能系统,如垃圾邮件过滤器、视频游戏中使用的人工智能或流媒体服务的推荐系统,对个人或社会几乎没有危害。这些系统受到的治理要求最少,不受严格监管。
– 有限风险:这些系统具有中等风险,因为它们与用户有一定的交互或提供影响其决策的输入,如人工智能聊天机器人、虚拟助手或动态网站内容创建系统。它们需要最低限度的透明措施,包括告知用户他们正在与人工智能互动,因为它们的输出不影响安全、福祉或基本权利等领域。
– 高风险:可能影响人们的福祉、安全或基本权利的系统被归类为高风险。这些包括医疗保健领域的人工智能、自动驾驶汽车、教育分级或准入系统、招聘或绩效评估系统(无论是工作场所还是其他环境)以及公共服务。这些系统可能会显著影响人们的生活,并可能造成伤害。因此,它们需要更为严格且全面的治理,涵盖持续的风险评估、数据治理、透明度、问责制、稳健性、准确性以及人为监督。
– 高风险类别:这些系统违反了个人的基本权利,因此依据欧盟《人工智能法案》被禁止。例如,操纵人类行为以影响其自由意志,利用特定人群的脆弱性,以及未经目标定位的人脸数据抓取用于人脸数据库等系统。
**其他人工智能治理框架:NIST、ISO和OECD**
2024年7月,美国国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》,旨在指导拜登政府行政命令中原则的实际应用。该框架为组织提供了“提升将可信度考虑因素纳入人工智能产品、服务和系统设计、开发、使用和评估能力”的方法。
尽管该框架是自愿性的,但被认为是人工智能治理最佳实践的重要参考。
**其他人工智能治理框架:NIST、ISO和OECD**
– ISO 42001框架是一项为人工智能管理系统提供指南的标准。它帮助组织以负责任的方式管理、部署和监控人工智能。其优势在于能够无缝融入现有流程和系统。因此,组织无需从头开始建立人工智能治理,只需调整现有框架即可包含人工智能。
– 2024年,经济合作与发展组织(OECD)对其2019年起草并于2024年更新的《值得信赖的人工智能原则》进行了修订。这些原则涵盖:
– 人权与民主价值,包括公平与隐私
– 透明度与可解释性
– 稳健性、安全性与安全性
– 责任感
此外,它还向政策制定者提出了建议:
– 投资于人工智能研究和创新以促进值得信赖的人工智能系统。
– 培育包容的人工智能赋能生态系统。
– 塑造支持人工智能采用同时管理风险的政策环境。
– 培养人力资本并为劳动力准备人工智能带来的变化。
– 跨国界合作以协调全球值得信赖的人工智能治理工作。
鉴于其敏感性,人工智能治理需从全球到企业特定运营层面分层开展。每一层均需聚焦于相应的法规、监督及伦理管理问题。以下是人工智能治理的各个层次:
**跨国界合作以协调全球值得信赖的人工智能治理工作**
**全球治理**
这是一套国际准则,旨在帮助管理跨境风险,如网络安全、偏见和人权侵犯。全球治理还可促进国家间合作,从而推动人工智能研究和创新。
**国家治理**
针对人工智能的国家特定法规和政策有助于使研究和开发与国家优先事项保持一致。这些也确保遵守当地隐私和反歧视法律。
**行业特定治理**
不同行业以不同方式使用人工智能,其中一些行业的风险更高。这就是为什么制定行业特定的标准和指南非常重要,特别是对于医疗保健、金融、招聘和运输技术等关键的高风险垂直领域。
**技术治理**
指南、协议和标准(如ISO/IEC)帮助开发者创建和运行安全且符合道德的人工智能系统。这些规范涉及算法公平性、安全性强且保护隐私的数据实践以及人工智能模型的透明度等领域。
**组织治理**
就像面向公众的隐私政策阐述了公司如何收集、存储、处理和使用消费者的个人信息一样,组织也应该有内部政策和流程来开发和使用人工智能系统。内部政策确保组织内的团队在构建和部署人工智能技术或使用人工智能工具处理数据时,清楚了解并遵循符合道德的人工智能实践和相关的人工智能法规。
内部政策提供了监督和问责机制,以确保满足透明度、安全性和数据隐私要求。
就像面向公众的隐私政策阐述了公司如何收集、存储、处理和使用消费者的个人信息一样,组织也应该有内部政策和流程来开发和使用人工智能系统。
**内部政策**
组织还应教育和授权用户做出明智的决策,关于如何与人工智能互动和使用人工智能。
为了使消费者能够最大程度地控制如何与人工智能互动,他们还需要控制自己的数据并充分了解自己的隐私权。为此,他们必须被告知人工智能的风险,以获得真正的知情同意。
最后,他们必须了解自己在人工智能法规下的权利。
**像Osano这样的强大隐私管理平台**
通过协助您:
– 明确制定和阐述内部和外部政策,并使其对监管机构和利益相关者可见。这些框架可以作为制定其他治理政策的蓝图。
– 在整个组织内发现和跟踪数据,以了解个人和敏感数据的使用情况,包括在人工智能工具和项目中的使用情况。
– 了解第三方如何管理数据,包括在人工智能背景下。
– 在组织内部与其他人员清晰沟通,就人工智能使用和风险管理达成一致。
了解第三方如何管理数据,包括在人工智能背景下。
一旦您明确了个人和敏感数据的政策,知道其在组织中的位置及其用途,并获得了对运营和风险的可见性,您就可以在每种情况下更好地保护个人和敏感数据。
**更好的隐私治理转化为更好的人工智能治理**
将文中的英文单词都翻译成中文,最终的内容只输出中文,装备名称、人名地名、公司名称都翻译成中文,最后将语句再润色一下,使得前后文更加的通顺,让语句更加的生动,将最后的输出文本的格式看起来更美观,除此之外,不要提供任何解释文字。
(以上内容均由Ai生成)