GenAI 将员工变成无意的内部威胁
快速阅读: 据《帮助网络安全》称,报告显示,企业向生成式AI工具共享的数据量激增30倍,平均每月超7.7GB,敏感数据泄露风险加大。75%的企业用户访问AI应用,90%的组织有用户直接访问ChatGPT等应用。影子AI兴起,72%用户仍用个人账户访问工作相关AI应用,99%的组织正实施管控政策以应对风险。
企业与生成式人工智能(生成式AI)应用共享的数据量激增,根据Netskope的数据显示,在一年内增长了30倍。如今,平均每个组织每月向人工智能工具分享超过7.7GB的数据,而去年这个数字仅为250MB。这其中包括源代码、受监管数据、密码和密钥以及知识产权等敏感数据,显著增加了高成本的数据泄露、合规违规和知识产权盗窃的风险。
75%的企业用户正在访问具有生成式人工智能功能的应用程序,这给安全团队带来了更大的问题:无意的内部威胁。生成式人工智能应用程序带来了不断增长的网络安全风险。这其中包括源代码、受监管数据、密码和密钥以及知识产权等敏感数据,显著增加了高成本的数据泄露、合规违规和知识产权盗窃的风险。75%的企业用户正在访问具有生成式人工智能功能的应用程序,这给安全团队带来了更大的问题:无意的内部威胁。
90%的组织有用户直接访问像ChatGPT、Google Gemini和GitHub Copilot这样的生成式人工智能应用程序。98%的组织有用户访问提供生成式人工智能功能的应用程序,如Gladly、Insider、Lattice、LinkedIn和Moveworks。从许多不同的指标来看,企业在采用生成式人工智能方面正在上升。然而,从数据安全的角度来看,没有任何一项指标比发送到生成式人工智能应用程序的数据量更重要:每一次发布或上传都是数据暴露的机会。
“尽管各组织都在努力实施公司管理的生成式人工智能工具,但我们的研究表明,影子IT已演变为影子AI,近四分之三的用户仍然通过个人账户访问生成式人工智能应用程序,”Netskope首席信息安全官詹姆斯·罗宾逊说。“这一持续的趋势,加上所共享的数据,强调了需要先进的数据安全能力,以便安全和风险管理团队能够重新获得对组织内生成式人工智能使用情况的治理、可见性和可接受的使用。”
**企业缺乏对生成式人工智能数据的控制**
许多组织缺乏对数据如何在间接生成式人工智能使用中被处理、存储和利用的全面或部分可见性。很多时候,他们会选择一种“明确允许某些应用,同时封锁其余所有应用”的政策。然而,安全领导者必须寻求一种安全启用策略,因为员工正在寻求这些工具带来的效率和生产力优势。例如,Netskope发现,在DeepSeek于2025年1月推出后的几周内,91%的企业中有用户试图访问DeepSeek AI。当时,大多数企业都没有为DeepSeek制定安全政策,使他们面临未知的风险。此外,员工可能会不知不觉地将源代码、知识产权、受监管数据乃至密码输入生成式人工智能应用。
“我们的最新数据显示,生成式人工智能不再是利基技术;它无处不在,”Netskope威胁实验室主任雷·卡兹内斯说。“它正越来越多地集成到从专用应用程序到后端集成的各种事物中。这种普遍性带来了日益增长的网络安全挑战,要求组织采取全面的风险管理方法,否则可能面临敏感数据被第三方暴露的风险,这些第三方可能会用它来训练新的AI模型,造成更广泛的数据暴露风险。”
在过去的一年里,Netskope还观察到部署本地生成式人工智能基础设施的组织数量大幅增加,从不到1%增加到54%,并且这一趋势预计将继续下去。尽管减少了对云中第三方应用程序的意外数据暴露风险,转向本地基础设施引入了来自供应链、数据泄漏和不当数据输出处理的新类型数据安全风险,包括提示注入、越狱和元提示提取。因此,许多组织正在其已使用的基于云的生成式人工智能应用程序之上添加本地托管的生成式人工智能基础设施。
**影子人工智能的兴起**
虽然大多数组织都在使用生成式人工智能,但一小部分但持续增长的用户正在积极使用生成式人工智能应用程序。在过去的一年里,使用生成式人工智能应用程序的人数几乎翻了一倍,每个组织中平均有4.9%的人使用生成式人工智能应用程序。企业中的生成式人工智能应用程序采用模式遵循了新云计算服务的典型模式:个人用户使用个人账户访问应用程序。结果是,企业中大多数生成式人工智能应用程序的使用可以归类为影子IT,这是一个用来描述未经IT部门知晓或批准就被使用的解决方案的术语。一个更新的术语,影子AI,是专门为AI解决方案的特殊情况而创造的。影子IT和影子AI中的“影子”意指应用隐秘、非正式且脱离常规流程。即使在ChatGPT发布两年多后引发了生成式人工智能热潮,仍有72%的生成式人工智能用户仍在用个人账户访问工作中的ChatGPT、Google Gemini、Grammarly和其他流行的生成式人工智能应用。
企业中的生成式人工智能应用程序采用模式遵循了新云计算服务的典型模式:个人用户使用个人账户访问应用程序。结果是,企业中大多数生成式人工智能应用程序的使用可以归类为影子IT,这是一个用来描述未经IT部门知晓或批准就被使用的解决方案的术语。
“人工智能不仅仅是在重塑边界和平台安全——它正在重塑规则,”Netskope安全和情报运营副总裁阿里·吉格雷说。99%的组织正在执行管控生成式人工智能应用相关风险的政策。这些政策包括对所有用户封锁全部或绝大部分生成式人工智能应用,控制哪些特定用户群体可以使用生成式人工智能应用,以及控制允许进入生成式人工智能应用的数据。以下部分详细介绍了最受欢迎的具体政策。
(以上内容均由Ai生成)