使用 AI 时要考虑的 5 件事
快速阅读: 据《JD Supra》称,随着美国政府推动人工智能发展,企业需重视AI应用的风险管理。关键在于根据应用场景评估风险、实施有效的治理与监督、持续测试工具可靠性、加强数据治理及管控第三方风险,确保AI工具的安全与合规。
随着特朗普政府对新兴技术采取去监管化和亲创新的方法持续推进,人工智能的使用成为核心议题。显然,政府视其为一种具有竞争力的经济力量。从一开始就废除了拜登政府发布的《安全、安全和可信的人工智能开发和使用》的行政命令,显示出对增长和去监管化的高度重视。
在一个支持使用人工智能和技术创新的环境中,越来越多的公司将考虑利用人工智能工具来提高效率、创造新产品和服务,并扩大市场份额。随着技术迅速发展,机会似乎是无限的,而这些工具的市场需求也在不断增加。
那么接下来应该怎么做呢?尽管更广泛的支持环境鼓励技术使用和创新,但在消费者保护、风险管理、技术工具及其可能带来的第三方治理方面,根本性的考量依然存在。每个公司都有自己的风险管理系统以适应其特定需求,但以下是五个在所有项目中应考虑的重要因素。这些是风险管理的长期原则,在使用人工智能工具的背景下尤为重要。
**#1:应用场景决定风险概况**
在使用人工智能工具时,“如何、何时、何地以及为何”都很重要。这些因素直接影响公司需要考虑的法律和监管风险,以及相应的合规义务和治理机制。并非所有人工智能用例都具有相同的风险水平,因此在每个项目开始时进行风险评估非常重要。这种评估应考察人工智能的具体用途,连同法律和监管考虑,包括对客户的影响、歧视和偏见,以及向客户或监管机构解释决策是如何通过人工智能工具做出的能力。
**#2:监督它:治理和监督**
人工智能工具的使用应受到监控和管理,以确保在整个使用生命周期中的问责制和监督。应明确界定角色和职责并加以维持,拥有所有权和问责制。重要的是将来自公司的各个利益相关者带到谈判桌上,包括技术、运营、数据管理、隐私、法律、合规和风险等功能领域的人员,以及其他应参与决策或作为顾问的人员。
**#3:通过测试维护人工智能工具的完整性**
无论是使用供应商提供的AI解决方案还是由自己开发人员创建的模型,持续监控和测试人工智能工具对于确保可靠性和符合性能标准很重要。测试应贯穿人工智能工具的整个生命周期,从预部署到持续使用、性能监测和维护。
**#4:数据治理:管理你的AI数据**
人工智能依赖大量数据,这些数据的来源、收集、存储、管理、使用以及最终处置具有重要的法律和监管影响,也影响任何人工智能工具输出的质量。因此,强大的数据治理是人工智能治理的关键部分。数据管理不当或治理不足可能导致无效且有害的人工智能工具,可能会引入偏见,并使公司面临法律、监管和声誉方面的风险。
**#5:第三方风险:对第三方提供商进行有效监管**
许多公司使用第三方提供商的人工智能解决方案,这些方案可以根据其需求定制。虽然这些安排提供了便利和一些灵活性,但也可能带来风险。从监管角度来看,使用第三方解决方案的公司被视为对该工具的结果负责。因此,对第三方提供商进行有效监管至关重要,应包括对即将提供的AI工具的透明度要求,包括工具及其使用的模型的“可解释性”,以及审计权和其他应包含的透明度和问责措施。
请参阅原文。
(以上内容均由Ai生成)