AI 的采用正在蓬勃发展,但安全扩展却不那么重要
快速阅读: 据《帮助网络安全》称,F5报告显示,96%的组织部署AI,但仅2%准备充分。多数在治理和安全方面不足,风险增加。企业需加强AI安全与治理。
据F5公司发布的报告显示,96%的组织正在部署人工智能模型,几乎没有任何组织可以在不考虑机器学习和智能应用程序如何迅速影响其运营的情况下规划未来。全球仅有2%的组织在安全扩展人工智能方面高度准备就绪。这份报告基于对650名全球IT主管及150名人工智能战略专家的调查,这些组织的年收入均超过2亿美元。
尽管77%的公司具有中等的人工智能准备度,但大多数公司在治理和跨云安全方面存在不足,增加了风险。同时,21%的公司处于低准备度状态,这削弱了它们在人工智能变革行业中的竞争力。
F5的研究揭示了企业人工智能应用扩展的趋势。总体而言,70%的中等准备度组织正在积极使用生成式人工智能,几乎所有组织都在推进相关工作。平均来看,25%的应用程序使用了人工智能。高度准备的组织通常以更高的比例使用人工智能,预计将在整个产品组合中实现全面渗透。
低准备度组织在其应用程序中使用人工智能的比例不到四分之一,主要在孤立或实验性的环境中。中等准备度组织目前在其约三分之一的应用程序中使用人工智能。65%的组织使用两个或更多的付费模型,以及至少一个开源模型。平均每个组织使用三个模型,这与在多个环境或地点进行部署有关。
目前使用的大多数模型是付费模型,如GPT-4,但开源替代品也颇受欢迎。被提及的顶级开源模型包括Meta的Llama变体、Mistral AI变体和Google的Gemma。
F5首席产品与企业营销官约翰·马迪森表示:“随着人工智能成为企业战略的核心,准备度不仅仅是实验——它需要安全、可扩展性和协同性。人工智能已经改变了安全运营,但如果没有成熟的治理和专门的保护措施,企业可能会加剧威胁。”
企业缺乏保护开源人工智能模型的机制。只有18%的中等准备度组织已部署人工智能防火墙,47%的组织计划在一年内完成部署。仅有24%的组织进行持续的数据标注,这表明透明度下降,对抗性攻击的风险增加。混合环境导致治理缺口,使工作流程和数据暴露在漏洞之中。在没有适当控制框架的情况下,使用多种人工智能模型会增加风险。
F5提出了企业增强人工智能可扩展性和安全性的关键举措,包括:
– 多样化人工智能模型:同时使用付费和开源人工智能工具,并完善治理以降低风险。
– 扩大人工智能在工作流程中的应用:超越试点项目,将人工智能嵌入运营、分析和安全中,推动全企业范围的转型。
– 集成人工智能专用安全:部署如人工智能防火墙等保护措施,并建立正式的数据治理流程,包括数据标注,以保护工作流程。
高人工智能准备度的组织可以有效扩展,降低风险并战略性地利用创新。那些缺乏成熟框架的组织则面临运营瓶颈、合规挑战和增长受阻的问题。
(以上内容均由Ai生成)