为什么法律部门必须在 AI 治理方面发挥领导作用,以免为时已晚
快速阅读: 据《帮助网络安全》最新报道,伊维蒂公司高管布鲁克·约翰逊指出,人工智能治理需法律主导,跨部门协作降低风险。她强调法律团队应引导可控赋能,而非单纯禁止,同时确保政策在全公司范围内实施,并主张企业主动建立内部治理,以应对法律及道德风险,构建可信赖的人工智能系统。
在《帮助网络安全》的采访中,伊维蒂(Ivanti)公司的首席法律顾问兼人力资源与安全高级副总裁布鲁克·约翰逊探讨了人工智能治理中的法律责任,强调了跨职能协作如何能够在降低风险的同时实现安全、合乎道德的人工智能使用,并确保合规性。
从法律和治理的角度来看,未管理的人工智能使用的最大风险是什么?核心技术、伦理和法律的交叉点构成了核心风险。尽管生成式人工智能工具功能强大,但在数据隐私、偏见、安全和伦理等方面也带来了不少挑战。例如,在招聘过程中,如果一个基于生成式人工智能的招聘工具根据有缺陷或有偏见的训练数据做出决策,那么产生歧视性结果的风险既严重又可能。如果没有透明度来了解这些工具是如何运作的,公司可能会对它们可能不了解的结果承担法律责任。因此,解决这些风险不能仅仅依赖IT团队。法律必须在人工智能治理战略中占据主导地位,从一开始就塑造负责任的集成。
法律团队应如何与人力资源、IT和安全团队合作,制定明确且可执行的护栏,而不抑制创新?成功的AI治理在于促进负责任的创新。跨职能的、组织范围内的风险管理方法是实现这一目标的关键。在伊维蒂(Ivanti),我们看到当传统的孤立部门,如法律、人力资源、IT和安全,围绕共同目标团结起来时,结果不仅仅是合规;它是战略加速。这种对齐需要有意的设计。首先定义超越部门界限的共同目标。选择团队成员不仅要具备功能性专业知识,还要能够超越其职权范围思考。制定衡量集体成果而非个人活动的指标。至关重要的是,这种方法要求领导层具有广泛的业务思维:将合规性和风险视为进步的推动者而非阻碍的专业人士。有了这样的基础,创新可以安全地扩展。
法律在防止技术团队对人工智能的误用或过度依赖方面扮演什么角色,特别是在像GitHub Copilot、ChatGPT或代码生成系统等工具的情况下?简单禁止未经授权的人工智能使用是诱人的。然而,这是一种短视的做法——尤其是在人工智能采用激增的情况下。我们的研究表明,74%的IT工作者现在正在使用生成式人工智能工具,但令人震惊的是,近三分之一的人这样做了却未告知管理层。与其追逐违规者,法律团队应引领向受控赋能的转变。假定人工智能已经在使用,并主动界定其安全使用的具体场景和方式。在伊维蒂(Ivanti),我们的跨职能人工智能治理委员会(AIGC)通过审查工具并评估指导方针来协助员工应对这些模糊领域。教育也是至关重要的。当法律团队提供清晰且实用的培训,解释不同人工智能工具的安全影响,并说明为何存在限制时,员工才能更高效、更安全地完成工作。
公司如何确保人工智能政策不仅被书写下来,而且在各部门及地理区域间得到实施?人工智能治理只有在可行时才有效。首先,承认人工智能的使用很可能已经在整个组织内发生,无论是否得到批准。进行评估以了解哪些工具正在被使用,并确定哪些工具符合您的标准。然后,制定明确且务实的政策,规定何时以及如何应用人工智能。为团队配备经过验证的平台,这些平台易于访问且安全,从而减少对未经批准的替代方案的依赖。培训仍然是必不可少的。当人们理解人工智能规则背后的原因,而不仅仅是限制时,他们更有可能遵守。最后,将人工智能治理视为一个动态的过程。工具和威胁不断发展,您的政策也应该如此。跨职能协作确保在各部门及地理区域间持续优化并保持操作一致性。
您对公司在监管之前主动塑造内部人工智能治理的看法是什么?与其等待反应,公司应该有多积极?在建立内部人工智能治理方面采取主动措施不再是可选的——这是商业上的必要条件。不受控制的人工智能使用的法律和道德风险太大,无法等待法规赶上。负责任的治理必须从一开始就嵌入。伊维蒂(Ivanti)方法的核心之一是确保人工智能系统具有可解释性。这意味着不仅仅停留在表面保证上,而是询问人工智能模型是如何构建的,它们接受了哪些数据训练,以及如何减轻错误和偏见。我们的法律团队还在选择供应商方面发挥着核心作用,仔细审查其技术和道德基础。这不仅仅是合规问题,更是建立信任。作为一家全球公司,我们不仅遵循美国法律,还遵循不断发展的国际框架,如欧盟人工智能法案。这些有助于我们构建稳健、可扩展且面向未来的人工智能。
人工智能已成趋势。公司可以通过以治理为核心并赋予员工权力,同时确保创新在道德框架内开展,从而负责任地降低风险并释放人工智能的全部潜力。
(以上内容均由Ai生成)