四分之一机构遭受AI数据投毒攻击
快速阅读: 研究显示,过去一年英美26%的组织遭遇AI数据投毒攻击,20%经历深度伪造事件。AI生成的虚假信息、网络钓鱼及影子AI滥用增加,40%组织面临影子IT问题。牛顿-史密斯呼吁加强治理。
一项新研究发现,在过去一年中,英国和美国有26%的受调查组织遭遇了AI数据投毒攻击。这种攻击中,黑客通过植入隐藏后门、破坏性能或操纵结果来损害AI系统的训练数据。
信息安全平台IO(前身为ISMS.online)对英国和美国超过3,000名网络安全和信息安全经理进行了调查,结果显示,20%的组织在过去一年还经历了深度伪造或克隆事件。
除了深度伪造外,由AI生成的虚假信息和误导信息成为未来12个月最令人担忧的新威胁之一,42%的安全专业人士对此表示担忧,担心其可能引发诈骗和声誉损害。生成式AI驱动的网络钓鱼(占38%)和影子AI滥用也在增加,超过三分之一(37%)的受访者报告称,员工未经许可或指导使用生成式AI工具,增加了数据泄露、合规问题和声誉损害的风险。
总体而言,影子IT已经是40%组织面临的问题,而生成式AI加剧了这一问题,尤其是在没有人类监督的情况下使用时。40%的信息安全挑战者指出,AI在无人类合规检查的情况下完成任务是他们面临的主要难题之一。
IO首席执行官克里斯·牛顿-史密斯表示:“AI一直是一把双刃剑。虽然它带来了巨大的希望,但风险也随着技术的发展而迅速演变。许多组织过于仓促地采用了这项技术,现在正在为此付出代价。例如,数据投毒攻击不仅损害了技术系统,还威胁到我们依赖的服务的完整性。加上影子AI的影响,显然我们需要更强有力的治理措施来保护企业和公众。”
有趣的是,54%的受访对象承认他们在技术部署上过于草率,现在难以回撤或更负责任地实施。与此相呼应,39%的受访者将确保AI和机器学习技术的安全视为当前面临的最大挑战之一,这一比例从去年的9%大幅上升。同时,52%的人认为AI和机器学习阻碍了他们的安全工作。
另一方面,AI也成为了防御手段的一部分,79%的英国和美国组织正在使用AI、机器学习或区块链技术进行安全防护,这一比例从2024年的27%显著提高。此外,96%的组织计划投资于生成式AI驱动的威胁检测和防御,94%将推出深度伪造检测和验证工具,95%承诺在未来一年加强AI治理和政策执行。
牛顿-史密斯补充说:“英国国家网络安全中心已经警告,AI几乎肯定会在未来两年内使网络攻击更加有效,我们的研究表明企业需要立即采取行动。许多企业已经在加强韧性,通过采用ISO 42001等框架,组织可以负责任地创新,保护客户,更快恢复,并在遭受攻击时清晰传达其防御措施。”
完整的报告可在IO网站获取。
图片来源:NewAfrica / depositphotos.com
(以上内容均由Ai生成)