为什么 AI 驱动的安全工具是您抵御未来攻击的秘密武器
快速阅读: 据《ZDNet》称,思科AI产品副总裁阿南德·拉瓦坎表示,AI正改变网络安全,使攻击更复杂。思科推出AI助手和AI防御工具,帮助企业防范AI驱动威胁,确保AI应用安全。企业需增强AI可见性、验证模型漏洞并实施运行时保护。
雅罗斯拉夫·库什塔/Getty图片
在网络安全领域,有一句广为流传的格言:攻击者只需找到一处弱点或漏洞,而防御者必须防范所有可能的威胁。在网络安全领域,人工智能带来的挑战在于,这是一场涉及高级人工智能能力的竞争,攻击者和防御者都能获得武器级的人工智能能力。
思科是全球最大的网络公司之一,因此它在抵御人工智能驱动的网络攻击方面首当其冲。
此外:
四个专家级别的安全建议,助您应对人工智能驱动的网络威胁。
在这次专访中,ZDNet与思科的人工智能产品副总裁阿南德·拉瓦坎坐下来讨论了人工智能驱动的工具如何彻底改变网络安全并扩大组织的攻击面。
**ZDNet:能否简要介绍您的背景并在思科描述一下您的角色?**
**阿南德·拉瓦坎:**
我是阿南德·拉瓦坎,思科人工智能软件和平台小组的产品副总裁。我们致力于与思科的产品团队合作,为客户提供具有变革性、安全可靠的人工智能产品。
我们近期推出了两款产品:思科人工智能助手,它让客户可以用自然语言轻松操作我们的产品;以及思科人工智能防御,它帮助员工和组织安全地使用人工智能构建的云应用程序。
**ZDNet:人工智能如何改变企业在网络层面面临的威胁性质?**
**AR:**
人工智能彻底改变了网络安全部门的游戏规则,使黑客能够发起更复杂且耗时更少的攻击。他们利用自动化手段发起更具针对性和有效的网络钓鱼活动,这意味着员工可能更容易受到网络钓鱼尝试的影响。
我们看到恶意软件利用人工智能来适应以避免被传统的网络安全工具检测到。随着人工智能工具的普及,它们扩展了安全团队需要管理的攻击面,并加剧了现有的影子IT问题。
正如公司可以利用人工智能构建新的有趣应用一样,恶意行为者也能利用相同的技术集来创建新的攻击和威胁。现在比以往任何时候都更重要的是利用最新的AI技术来识别这些新型威胁并自动修复这些威胁。
我们看到恶意软件利用人工智能来适应以避免被传统的网络安全工具检测到。随着人工智能工具的普及,它们扩展了安全团队需要管理的攻击面,并加剧了现有的影子IT问题。
此外:
美国AI安全主管辞职后怎么办?
无论是通过我们的防火墙中的加密域实时阻止恶意连接,还是在我们的电子邮件威胁防御产品中基于语言的欺诈电子邮件检测器,理解新的威胁攻击面并如何保护它们变得至关重要。
随着面向客户的AI应用程序的出现,模型及其相关的漏洞已成为关键的新攻击面。AI模型可能成为攻击的目标。提示注入或拒绝服务攻击可能会无意中泄露敏感数据。安全行业迅速响应,将AI纳入解决方案以发现异常模式并检测可疑网络活动,但这是一场保持领先一步的竞赛。
**ZDNet:AI驱动的工具如何帮助企业领先于日益复杂的网络对手?**
**AR:**
在不断变化的威胁环境中,AI驱动的安全工具能够在手动监控无法比拟的规模上提供持续且自我优化的监控。
通过AI,安全团队可以分析公司整个生态系统中各种来源的数据,并检测可能表明数据泄露的异常模式或可疑流量。由于AI比人类更快地分析这些数据,组织可以在近实时响应事件以减轻潜在威胁。
在不断变化的威胁环境中,AI驱动的安全工具能够在手动监控无法比拟的规模上提供持续且自我优化的监控。
此外:
DeepSeek AI是什么?它安全吗?你需要知道的一切。
在威胁监控和检测方面,AI为安全专业人员创造了人机协作的优势,使得人类专业人士借助AI提升了可见度和响应效率,这是他们独自无法实现的。
在一个经验丰富的顶级Tier 3分析师在SOC更难找到的世界里,AI可以成为组织战略的重要组成部分,协助和辅助Tier 1和Tier 2分析师的工作,并大幅缩短他们处理新发现事件和威胁所需的时间。
通过AI实现XDR的工作自动化将帮助企业领先于网络对手。
**ZDNet:请解释一下AI防御,它主要解决什么问题?**
**AR:**
当你想到人们采用AI应用的速度有多快时,简直令人难以置信。然而,在组织内部,AI的发展和采用并未如预期般快速推进,因为人们仍然不确定其安全性,或者他们不相信能够妥善保护它。
根据思科发布的2024年AI准备报告,只有29%的组织感到完全有能力检测和防止未经授权的AI篡改。公司不能因推进速度过快而冒安全风险,但也不能因未能采用AI而落后于竞争对手。
当你想到人们采用AI应用的速度有多快时,简直令人难以置信。然而,在组织内部,AI的发展和采用并未如预期般快速推进,因为人们仍然不确定其安全性,或者他们不相信能够妥善保护它。
此外:
税务骗局越来越狡猾——在为时已晚之前有10种方法保护自己。
AI防御为企业内的AI转型提供支持并保障其安全性,因此企业无需在安全性与采用之间取舍。未来,将会有AI公司和无关紧要的公司。
从高层次来看,AI对企业带来了两大风险。第一是员工误用第三方AI工具导致敏感数据泄露的风险。任何与未经批准的AI应用程序共享的知识产权或机密信息都容易泄露和被利用。
AI防御为企业内的AI转型提供支持并保障其安全性,因此企业无需在安全性与采用之间取舍。未来,将会有AI公司和无关紧要的公司。
第二个风险与企业开发和部署自己的AI应用程序有关。AI模型需要受到保护,以免受到诸如提示注入或训练数据投毒等威胁,以便它们能够按照预期运行并对客户安全。
AI防御为企业内的AI转型提供支持并保障其安全性,因此企业无需在安全性与采用之间取舍。未来,将会有AI公司和无关紧要的公司。
此外:
AI正在改变网络安全,企业必须意识到这一威胁。
思科的AI防御解决了这两个方面的AI风险。我们的AI访问解决方案为安全团队提供了对当前使用的第三方AI应用程序的全面视图,并允许他们设置限制敏感数据共享或限制访问未授权工具的策略。
对于正在开发自己的AI应用程序的企业,AI防御采用算法化的红队方法自动化模型的漏洞评估。
思科的AI防御解决了这两个方面的AI风险。我们的AI访问解决方案为安全团队提供了对当前使用的第三方AI应用程序的全面视图,并允许他们设置限制敏感数据共享或限制访问未授权工具的策略。
在秒级识别这些风险后,AI防御提供实时防护措施,以保护AI应用程序免受提示注入、数据提取和拒绝服务等威胁。
**ZDNet:AI防御如何区别于现有的安全框架?**
**AR:**
AI的安全性和保障是企业刚刚开始面临的一个巨大新挑战。毕竟,AI从根本上不同于传统应用程序,现有的安全框架不一定能以同样的方式适用。
AI防御专门设计用于保护企业免受AI应用程序使用和开发的风险。我们的解决方案基于思科自己的定制AI模型,遵循两个主要原则:持续的AI验证和大规模保护。
在保护传统应用程序方面,公司使用由人类安全专家组成的红队试图破解应用程序并发现漏洞。这种方法远远不足以验证非确定性的AI模型。你可能需要成千上万的团队工作数周。
这就是为什么AI防御采用算法化的红队解决方案,持续监控漏洞并推荐防护措施。思科的平台化安全架构意味着这些防护措施分布在网络中,安全团队可以全面掌握其AI应用情况。
**ZDNet:思科对于将AI防御与更广泛的企业安全策略集成有什么愿景?**
这就是为什么AI防御采用算法化的红队解决方案,持续监控漏洞并推荐防护措施。思科的平台化安全架构意味着这些防护措施分布在网络中,安全团队可以全面掌握其AI应用情况。
**AR:**
思科的2024年AI准备报告显示,尽管组织面临着采用AI的巨大压力,但大多数组织仍未准备好充分利用AI的潜力,许多组织缺乏关于AI安全风险的认识。
通过像AI防御这样的解决方案,思科使组织能够安全地解锁AI的好处。思科的AI防御旨在解决多云、多模型世界中组织面临的诸多安全挑战。
它为安全团队提供了对AI应用程序的可见性和控制权,并且对开发人员来说无缝衔接,节省了他们的时间和资源,使他们能够专注于创新。
通过像AI防御这样的解决方案,思科使组织能够安全地解锁AI的好处。思科的AI防御旨在解决多云、多模型世界中组织面临的诸多安全挑战。
当一个组织希望采用AI,无论是为了员工还是为了构建面向客户的应用程序时,他们的采用生命周期包括以下步骤:
**可见性:** 了解员工使用的工具,或他们在云环境中部署的模型。
**验证:** 监控和验证在云环境中运行的模型,并评估它们的漏洞,识别防护措施作为这些漏洞的补偿控制措施。
**运行时保护:** 当这些模型投入生产时,监控所有提示和响应,并对这些提示和响应应用安全性、安全性、隐私性和相关性防护措施,以确保客户在与这些云应用程序交互时有一个安全和安全的体验。
验证:监控和验证在云环境中运行的模型,并评估它们的漏洞,识别防护措施作为这些漏洞的补偿控制措施。
这些都是AI防御作为其功能的一部分所支持的核心领域。在Secure Access或SASE(安全访问服务边缘)产品中可以实现员工保护的执行,而在云应用程序中的执行可以在如思科多云防御的云保护套件应用程序中实现。
**ZDNet:企业应采取哪些策略来缓解针对AI系统的对抗性攻击风险?**
**AR:**
AI应用程序为企业技术栈引入了一类新的安全风险。与传统应用程序不同,AI应用程序包含模型,这些模型是不可预测且非确定性的。当模型的行为不符合预期时,它们可能导致幻觉和其他意外后果。模型也可能成为训练数据投毒、提示注入和越狱等攻击的目标。
模型构建者和开发人员都会为AI模型设置安全层,但在多云、多模型系统中,安全和安全标准会不一致。为了防止AI篡改和数据泄露的风险,组织需要在所有云、应用程序和模型中建立共同的安全基质。
AI应用程序为企业技术栈引入了一类新的安全风险。与传统应用程序不同,AI应用程序包含模型,这些模型是不可预测且非确定性的。当模型的行为不符合预期时,它们可能导致幻觉和其他意外后果。模型也可能成为训练数据投毒、提示注入和越狱等攻击的目标。
此外:
这款强大的防火墙以家庭办公室的价格提供企业级安全。
当涉及利益相关者的责任碎片化时,这一点变得更加重要——模型构建者、应用程序构建者、治理、风险和合规团队。
在AI安全产品方面拥有一个共同的基础,可以监控并强制执行跨所有类别的AI安全和安全标准所需的防护措施,这些标准由MITRE ATLAS、OWASP LLM10和NIST RMF等标准规定,变得至关重要。
(以上内容均由Ai生成)