您的员工在工作中是否使用 Chinese GenAI 工具?
快速阅读: 据《帮助网络安全》称,Harmonic Security研究显示,每12名员工中1人使用中国生成式AI工具,导致数据泄露。7.95%用户访问相关应用,535起泄露事件中85%涉及DeepSeek。
记者获悉,根据Harmonic Security最新研究显示,每12名员工中就有1人在工作中使用中国开发的生成式AI工具,导致敏感数据暴露。这项研究分析了美国和英国约14,000名终端用户在30天内的行为,发现7.95%的用户至少访问了一个中国生成式AI应用。在与这些工具互动的1,059名用户中,共发生了535起敏感数据泄露事件,其中大部分涉及DeepSeek,占总事件的85%,其次是Moonshot Kimi、Qwen、百度聊天和Manus。
泄露的敏感数据中,代码和开发资料占比最高,达到32.8%,包括专有代码、访问密钥和内部逻辑。其他主要类别包括并购数据(18.2%)、个人身份信息(17.8%)、财务信息(14.4%)、客户数据(12.0%)和法律文件(4.9%)。
工程密集型组织尤为脆弱,因为开发者越来越多地使用生成式AI来辅助编码,但往往忽视了将内部源代码、API密钥或系统架构提交到国外托管模型的风险。
Harmonic Security首席执行官阿尔斯特·帕特森表示:“由于在数据保留、输入重复使用和模型训练政策方面缺乏透明度,所有提交到这些平台的数据都可能成为中国共产党的财产,给企业带来严重的法律和合规风险。尽管这些应用功能强大,但在特定任务上甚至优于美国同类产品,员工仍然会继续使用它们。然而,这些工具对企业的安全团队来说却是盲点。”
帕特森进一步指出:“仅靠封锁通常效果不佳,且常常与业务目标不符。即使在愿意采取强硬措施的公司中,用户也会绕过控制措施。更有效的做法是加强教育,培训员工了解使用未经授权的生成式AI工具,特别是中国托管平台的风险。我们建议通过批准的生成式AI工具提供替代方案,以满足开发人员和业务需求。此外,实施政策防止敏感数据,尤其是源代码,被上传到未经授权的应用程序。采取轻量级防护机制和引导措施的组织,可以减少高达72%的敏感数据泄露,同时将人工智能采用率提高300%。”
(以上内容均由Ai生成)