AI 安全的成本
快速阅读: 据《信息周刊》最新报道,随着AI技术兴起,企业面临数据安全、模型安全、影子AI等新挑战。预算需涵盖数据保护、员工培训、治理合规及保险等成本。跨部门协作与供应商对话至关重要,风险框架助厘清资金投向。
我们之前已经经历过类似的情况。一种新的、令人兴奋的技术出现,承诺改变商业格局。企业争相采用它,供应商竞相创造最具吸引力的使用案例。业务优先,安全其次。我们曾看到这种情况发生在云计算上,现在我们正处于人工智能(AI)这一新技术的早期阶段。IBM进行的一项调查显示,只有24%的生成式AI项目包含安全元素。“现在,董事会更加意识到网络安全的必要性。CEO们也认识到声誉风险。”全球技术公司IBM安全部门副总裁阿基巴·萨伊迪说道。这种意识意味着更多的企业领导者正在以安全的角度思考AI,即使目前业务需求压倒了安全考虑。
企业在使用AI时会面临哪些安全成本?预算需要如何调整来应对这些成本?
数据安全对于企业来说,数据安全不是一个新概念,也不是新成本,但它对于保持AI安全至关重要。“在你真正做好AI安全之前,你必须先做好数据安全,因为AI的核心就是数据,而我们与许多公司和人士交谈时发现,他们仍在努力解决……基本的数据层问题。”云解决方案提供商SADA(Insight公司的一部分)云安全总监约翰·吉格利奥告诉《信息周刊》。
相关:AI的真实成本:《信息周刊》特别报告
对于尚未重视数据安全的组织而言,讨论AI安全相关的预算可能会比较棘手。“可能存在非常隐性的成本。很难理解如何着手解决问题并识别这些隐藏的成本。”吉格利奥说。
模型安全
AI模型本身也需要保障安全。“许多这些生成式AI平台实际上只是黑盒子。因此,我们在考虑‘如何对这类解决方案进行渗透测试’时,不得不创建新的范例。”网络安全公司Absolute Security的信息安全、风险和合规副总裁马蒂·皮尔斯说道。
模型操纵也是一个问题。有可能“欺骗模型提供不应该提供的信息,泄露敏感数据……让模型做它不一定应该做的事情”,萨伊迪指出。企业需要投资哪些工具和流程来防止这种情况发生?
影子AI
AI已经广泛应用于员工,企业领导可能不知道其组织中已经使用了哪些工具。影子IT并不是一个新挑战;影子AI只是加剧了这个问题。相关:AI的隐性成本:数据准备会破坏你的预算吗?
如果员工将企业数据喂入各种未知的AI工具,暴露风险就会增加。涉及影子数据的漏洞更难以识别和控制,最终导致更高的成本。根据IBM的数据,涉及影子数据的漏洞平均成本为527万美元。
员工培训
每当企业引入新技术时,都会伴随着学习曲线。构建新AI能力的员工是否了解安全影响?“如果你考虑到那些构建AI模型的人,他们是数据科学家。他们是研究人员。他们的专长不一定是安全。”萨伊迪指出。他们需要时间和资源来学习如何保障AI模型的安全。企业还需投入资源对终端用户进行教育。他们如何以安全的方式使用AI工具?“如果你不了解它是如何工作的,你就无法保护它。”吉格利奥说。
员工教育还需要解决AI赋予威胁行为者的新攻击能力。“我们的意识计划必须开始真正关注这样一个事实:攻击者现在可以冒充他人。”皮尔斯说,“我们有深度伪造,这实际上非常可怕,可以在视频通话中实现。我们需要确保我们的员工和组织为此做好准备。”
治理和合规
企业领导者需要强有力的治理和政策来减少AI使用可能带来的高成本后果:数据泄露、影子AI、模型操纵、AI驱动的攻击、安全漏洞、模型歧视。“虽然还没有详细的法规明确规定你必须向审计师证明你在数据或AI模型周围的安全控制方面的合规性,但我们知道这将会到来。”萨伊迪说,“这将推动支出。”
网络保险
生成式AI为企业引入了新的安全能力和风险,这意味着网络保险领域可能会发生变化。合适的防御工具是否真能让企业降低风险并减少保费?更复杂的威胁是否会推高保险费用?“现在还为时过早……去理解生成式AI对保险风险状况的实际影响。”吉格利奥说。尽管如此,保险成本是安全成本讨论的重要组成部分。
构建预算
AI及其安全需求的成本将成为企业领导者持续讨论的话题。“这个周期还处于非常早期的阶段,大多数安全组织都在试图弄清楚他们需要保护什么,实际有什么不同。他们已经具备了哪些可以利用的东西?”萨伊迪说。
谁参与了这些不断发展的对话?首席信息安全官(CISO)自然在定义企业AI工具的安全控制方面发挥着主导作用,但鉴于AI日益普及,多利益相关方的方法是必要的。其他高管团队成员、法务团队和合规团队通常也有发言权。萨伊迪观察到,跨职能委员会正在形成,以评估AI风险、实施、治理和预算。
当企业内部的这些团队开始理清各种AI安全成本时,讨论需要包括AI供应商。“任何安全或IT组织与供应商交谈时的关键部分是理解,‘我们将使用您的AI平台,但您将如何处理我们的数据?’”该供应商是否会使用企业的数据进行模型训练?该企业的数据是如何被保护的?AI供应商如何解决其工具实施相关的潜在安全风险?
AI供应商越来越愿意与客户讨论这些安全问题。“像微软和谷歌这样的主要参与者……他们开始在方案中强调安全性而非仅聚焦于生成式AI功能,因为他们知道这即将到来。”吉格利奥说。
AI功能的预算讨论具有熟悉的拉锯战:创新与安全。分配这些资金并不容易,在实施过程的早期还有足够的空间犯错。但有一些新的框架可以帮助企业了解其风险,比如OWASP大型语言模型应用程序的十大风险和国家标准与技术研究院(NIST)的AI风险管理框架。更清晰的风险状况有助于企业领导者明确资金的投入方向。
(以上内容均由Ai生成)