人工智能已经到来,安全仍然没有
快速阅读: 据《帮助网络安全》称,报告显示,79%的组织使用AI,但仅6%有全面安全策略。多数企业面临AI安全威胁,仅28%进行专门评估,且缺乏专业团队。
据SandboxAQ的人工智能安全基准报告显示,尽管79%的组织已在生产环境中应用人工智能,但仅有6%的组织建立了专门针对人工智能的全面安全策略。报告指出,大多数企业仍面临未准备好检测或应对的威胁,人工智能风险引起了安全领导者的高度关注。
该报告基于对美国和欧盟102位高级安全领导者的调查,揭示了广泛的安全担忧,涉及模型篡改、数据泄露、对抗性攻击及非人类身份的利用。虽然首席信息安全官(CISOs)对此越来越担忧,但只有28%的组织进行了专门针对人工智能的安全评估。大多数企业仍在使用传统工具,这些工具并不适用于保护机器驱动的系统。
报告的关键发现显示,仅6%的组织在IT和人工智能系统中实施了原生人工智能安全措施。74%的安全领导者担心人工智能增强的网络攻击,69%则担心人工智能在环境中发现新漏洞的能力。仅有10%的公司设有专门的人工智能安全团队,其余组织的责任大多由传统的IT或安全团队承担。
SandboxAQ网络安全集团总经理马尔克·曼扎诺在接受采访时指出,大多数组织尚未建立有效的人工智能安全评估体系,这导致了人工智能采用与安全准备之间的显著差距。他强调,成熟的安全团队正逐步转向评估真正反映人工智能系统在生产环境中行为及其潜在影响的风险,包括对非人类身份和加密资源的监控能力。
曼扎诺还警告称,一些大型组织为了支持需要大量数据的人工智能应用,正在放宽过去十年制定的数据安全政策,这一趋势令人担忧。网络安全专业人员必须加快步伐,开发适应快速发展的网络安全解决方案。
随着非人类身份(如自主AI代理和服务账户)的增加,安全环境变得更加复杂。这些实体通常在无人监督的情况下运行,使用加密凭证访问敏感资源。然而,大多数安全团队对其行为缺乏可见性和控制力,这削弱了零信任原则,并暴露出身份治理和加密管理方面的问题。
尽管存在这些安全漏洞,对人工智能保护的投资正在加速。85%的组织计划在未来12至24个月内增加人工智能安全预算,其中四分之一的组织预计将大幅增加投资。主要优先事项包括保护训练数据和推理流程、加强非人类身份管理和实施自动化事故响应工具。
(以上内容均由Ai生成)