谁在守卫 AI?甚至安全团队也绕过了监督
快速阅读: 《帮助网络安全》消息,调查显示,八成网络安全专家使用AI工具,但近半数未经批准,存在数据泄露等风险。仅三成组织积极监控AI使用情况,责任归属也不明晰,全球面临效率与安全平衡的挑战。
即使负责保护业务安全的团队,也在加剧与人工智能(AI)相关的风险。根据由AI安全公司Mindgard基于RSA网络大会2025及欧洲信息安全展2025收集的超过500名网络安全专家反馈的新调查显示,许多安全人员在未获批准的情况下,将AI工具应用于工作。
**安全团队使用AI工具现状**
这种未经授权的AI工具普及现象,通常被称为“影子人工智能”,正逐渐成为负责组织防御任务团队中的主要盲区。这种非正式使用模式绕过了标准的安全审查流程。然而,相较于传统工具,AI工具带来的风险更为严重。它们能够处理敏感代码、内部文件和客户数据,增加了数据泄露、隐私问题以及违反合规性规定的可能性。
调查显示,86%的网络安全专家表示他们在工作中使用AI工具,近四分之一的人通过个人账户或未获批准的浏览器插件使用。76%的受访者认为其网络安全同事也在使用AI工具,主要用于辅助编写检测规则、生成培训材料或审查代码。
**输入数据的风险加剧**
输入这些工具的数据类型进一步放大了潜在风险。大约30%的受访者承认内部文件和电子邮件被输入至AI系统中。同样比例的人承认客户数据或机密商业信息也被上传至系统。五分之一的受访者表示,他们曾输入过敏感数据,而12%的人甚至不确定提交的数据类型。
**缺乏有效监管**
令人担忧的是,监督工作未能及时跟进。仅有32%的组织正积极监控AI的使用状况,另有24%依靠非正式检查手段,例如问卷调查或经理审核,这类方法往往难以揭示实际情况。更有14%的组织完全未实施任何监控措施,意味着某些企业在应对AI风险时毫无准备。
**责任归属模糊不清**
调查还显示,许多组织对谁应负责AI风险管理并不清晰。39%的受访者表示没有专人正式承担此职责,而38%的人认为应由安全团队负责。相较之下,少数人认为应由数据科学、管理层或法律合规部门承担该责任。这些分歧表明,各部门之间亟需加强协作并明确责任分工。
这一系列数据揭示了AI技术在快速发展的过程中,所带来的挑战与隐患。如何平衡效率与安全性,已成为全球网络安全领域共同面临的课题。
(以上内容均由Ai生成)