AI 中的法律漏洞是一种业务风险,而不仅仅是合规性问题
快速阅读: 《帮助网络安全》消息,7月12日,Zendesk报告指出,仅23%企业具备管理AI能力,面临数据隐私、模型偏见等挑战。合规进展滞后,法律团队需应对碎片化监管。AI引入新型风险,客户期望监督,法律团队应主动参与治理。
7月12日,北京,Zendesk发布了一份新报告,指出企业在部署人工智能工具时面临诸多挑战。报告显示,尽管人工智能正逐渐应用于客户服务和支持领域,但仅有23%的企业认为自己具备管理人工智能的能力。报告强调了从数据隐私到模型偏见等多方面的担忧,核心问题是客户的信任问题:当客户对人工智能的使用感到不安时,他们不太可能参与互动。此外,缺乏有效管理框架的企业将面临法律、声誉和运营风险。
合规进展滞后
报告还指出,法律团队面临的最大挑战之一是人工智能监管的碎片化。虽然欧盟的《人工智能法案》在全球范围内占据主导地位,但许多国家和美国各州也在推出自己的监管框架。这导致企业需要遵守多套规则,有时这些规则甚至相互冲突。根据报告,只有20%的企业拥有成熟的生成式人工智能治理策略,多数公司不得不在工具已经投入使用后匆忙建立相关流程。
Zendesk首席法律顾问Shana Simmons表示:“我们的AI治理基于适用于所有司法管辖区的核心原则,如隐私和安全设计、透明度和可解释性以及客户控制权。我们将人工智能特定的治理步骤嵌入产品开发过程中,以确保风险被识别和缓解,同时最大限度地减少风险较低的功能带来的瓶颈。”
AI引入了新型风险
研究人员列举了几种人工智能特有的威胁,包括“越狱”、即用户试图让AI工具做出不当行为;“提示注入”,即攻击者通过输入操纵AI行为;“幻觉”,即AI生成错误或虚构的信息;“数据泄露”,即敏感信息出现在AI输出中。这些风险不仅超出了一般的IT威胁,还可能导致企业面临法律诉讼和声誉损害。
客户期望监督
客户越来越关注人工智能的应用。Zendesk引用的研究显示,客户希望在与AI互动时感到“被尊重、被保护和被理解”。这意味着企业不能仅依靠简单的免责声明或复选框。客户希望知道AI是否参与其中,其工作原理,以及他们对自己数据的控制权。如果不满足这些期望,企业可能会面临客户流失、投诉增多,甚至集体诉讼的风险,特别是在医疗和金融等受监管的行业。
法律领导者现在可以做什么
对于法律团队来说,积极主动地应对AI治理问题至关重要。具体措施包括:审查现有AI部署,找出透明度、公平性和用户同意方面的差距;建立灵活的合规框架,适应法律法规的变化;确保供应商在合同中承诺遵守治理标准;在AI产品规划的早期阶段参与,而不仅仅是最终审核;最重要的是,帮助业务设置边界,确保企业在面对AI决策引发的诉讼时能够提供充分的证据和防护措施。
(以上内容均由Ai生成)