AI 安全漏洞让网络专业人员手忙脚乱
快速阅读: 据《ITProPortal》最新报道,报告显示,2024年生成式AI流量激增超890%,主要用于写作助手和对话代理。然而,这带来了显著安全问题,如数据泄露事件增加。研究建议收紧流程,实施访问管理和零信任框架以应对风险。
生成式人工智能对企业已不再是新鲜事物,而是不可或缺的工具——这对网络安全专业人士来说带来了更多困扰的问题。根据帕洛阿尔托网络(Palo Alto Networks)发布的最新报告,2024年生成式AI流量激增,增幅超过890%。分析显示,这项技术主要用作写作助手,占比34%,其次是对话代理,占比29%,企业搜索占比11%。研究中提到的热门应用包括ChatGPT、微软Office 365 Copilot和微软Power Apps。尽管技术的使用持续增加,但这一热潮也带来了显著的安全问题,网络安全人员报告数据安全事件大幅增加。与生成式AI相关的数据防泄漏(DLP)事件在2025年初翻倍。同时,公司发现,与生成式AI相关的数据安全事件的平均每月数量增加了两倍半,目前占SaaS流量数据安全事件总数的14%。“组织正在应对生成式AI应用在其环境中的无序扩张。平均而言,组织中有约66个生成式AI应用程序在使用,”研究人员表示。“更重要的是,其中10%属于高风险类别,”研究人员补充道。“未经授权的生成式AI工具的广泛使用,加上缺乏明确的人工智能政策以及对快速采用AI的压力,可能会使组织暴露于新的风险之中。”
获取ITPro每日新闻简报今天注册,您将免费获得我们《2025年未来聚焦》报告的副本——这是根据700多位高级管理人员提供的关于人工智能、网络安全和其他IT挑战的领先指导。请向我发送来自其他Future品牌或赞助商的新闻和优惠信息。请代表我们的可信合作伙伴或赞助商接收电子邮件。
研究人员指出,这里的关键问题在于缺乏对人工智能使用的可见性,“影子AI”让安全团队难以监控和管控组织内的工具使用情况。研究还指出,难以管控对数据的未授权访问,进一步引发担忧。被越狱或篡改的人工智能模型可能响应恶意链接和恶意软件,或被用于非预期用途,而插件、副驾驶和人工智能代理的普及正在形成被忽视的“后门”。加剧风险的是迅速演变的监管环境,在此环境中,违反新兴的人工智能和数据法规可能使组织遭受严厉惩罚。“令人不安的事实是,尽管人工智能带来了生产力提升,但仍有许多令人担忧的问题——包括敏感商业机密或源代码在未获批准的AI平台上共享导致的数据泄露,”研究人员说。“还有使用未经审核、易受中毒输出影响、存在网络钓鱼骗局和伪装成合法AI响应的恶意软件的生成式AI工具的风险。”
如何应对人工智能安全风险
组织需收紧相关流程,根据Palo Alto Networks的说法。他们应实施条件访问管理,限制对生成式AI平台、应用程序和插件的访问,并利用实时内容检测保护敏感数据免遭未授权访问和泄露。同样,研究建议部署零信任安全框架,以识别并阻止通常极为复杂、具有高度规避性和隐蔽性的恶意软件及生成式AI响应中的威胁。“生成式AI的迅猛发展从根本上重塑了企业组织的数字版图,”研究小组表示。“尽管生成式AI解锁了创新并加速了竞争,但未经授权的AI工具泛滥正使组织面临更大的数据泄露、合规失误和安全挑战风险。”
更多来自ITPro的内容
高管认为人工智能可以大幅提升网络安全团队——分析师并不信服
公共部门工作人员对人工智能安全威胁感到焦虑
高管认为人工智能可以大幅提升网络安全团队——分析师并不信服
企业担心代理人工智能的安全风险——Gartner表示答案是增加更多的AI代理
高管认为人工智能可以大幅提升网络安全团队——分析师并不信服
希望这些内容能帮助您更好地了解人工智能带来的机遇与挑战!
(以上内容均由Ai生成)