确保AI安全:实现智能防御的关键步骤

发布时间:2025年10月21日    来源:szf
确保AI安全:实现智能防御的关键步骤

快速阅读: 人工智能在网络安全中展现巨大潜力,可减少警报疲劳、快速识别模式。但需确保AI系统安全,避免增加攻击面。通过建立信任、实施严格控制,AI可增强人类能力,实现更智能、快速、有效的防御。

人工智能(AI)在改善网络防御和简化安全人员工作方面展现出巨大潜力。它能帮助团队减少警报疲劳,更快识别模式,并实现人类分析师难以匹敌的规模效应。然而,要实现这一潜力,关键在于保障支撑AI运行的系统的安全性。

每个尝试将AI应用于安全运营的组织,无论有意还是无意,都在扩大其攻击面。缺乏明确的治理、强大的身份控制以及对AI决策过程的透明度,即使初衷良好的部署也可能快速产生风险,超过其降低风险的能力。为了真正从AI中获益,防御者需要以对待其他关键系统同样的严谨态度来保障AI的安全。这意味着建立对其学习数据的信任,对其采取行动负责,并对其产生的结果进行监督。当正确保障时,AI可以增强而不是替代人类能力,帮助从业者更智能地工作,更快响应,更有效地防御。

建立代理型AI系统的信任

随着组织开始将AI整合到防御工作流程中,身份安全成为信任的基础。现在,每个在生产环境中运行的模型、脚本或自主代理都代表了一个新的身份——能够访问数据、发出命令并影响防御结果。如果这些身份没有得到适当管理,原本旨在加强安全性的工具可能会悄悄变成风险来源。

代理型AI系统的出现使这一点尤为重要。这些系统不仅分析,还可能在无人干预的情况下行动。它们会自动处理警报、丰富上下文或触发响应剧本,在人类操作员授权下运行。每一次行动实际上都是信任的一次交易。这种信任必须与身份绑定,通过政策认证,并能够全程追溯。

应用于人和服务的安全原则现在也应适用于AI代理:

– 权限范围和最小权限原则,确保每个模型或代理只能访问其任务所需的数据和功能。

– 强认证和密钥轮换,防止冒充或凭证泄露。

– 活动溯源和审计日志,确保每个AI发起的行动都能被追踪、验证并在必要时撤销。

– 分割和隔离,防止跨代理访问,确保一个被攻破的过程不会影响其他过程。

实际上,这意味着将每个代理型AI系统视为IAM框架内的首要身份。每个系统都应有一个明确的所有者、生命周期策略和监控范围,就像任何用户或服务账户一样。防御团队应持续验证这些代理的实际能力,而不仅仅是其预期能力,因为实际能力往往比设计能力变化得更快。确立身份为基础后,防御者可以将注意力转向保障更广泛的系统安全。

保障AI安全:成功最佳实践

保障AI安全始于保护使其成为可能的系统——即现在融入日常安全运营的模型、数据管道和集成。就像我们保护网络和终端一样,AI系统也必须被视为关键基础设施,需要分层且持续的防御。

SANS安全AI蓝图提供了一个明确的起点,即“保护AI”路径。该蓝图基于SANS关键AI安全指南,定义了六个可以直接转化为实践的控制领域:

– 访问控制:对每个模型、数据集和API应用最小权限和强认证。持续记录和审查访问,以防止未经授权的使用。

– 数据控制:验证、清理和分类所有用于训练、增强或推理的数据。安全存储和血统追踪减少了模型中毒或数据泄露的风险。

– 部署策略:通过沙箱、CI/CD门控和红队测试,在发布前加固AI管道和环境。将部署视为受控、可审计的事件,而非实验。

– 推理安全:通过输入/输出验证、防护栏和高影响力行动的升级路径,保护模型免受提示注入和误用。

– 监控:持续观察模型行为和输出,寻找漂移、异常和妥协迹象。有效的遥测技术使防御者能够在操纵扩散之前发现。

– 模型安全:在整个生命周期中对模型进行版本控制、签名和完整性检查,以确保真实性和防止未经授权的替换或重新训练。

这些控制措施直接与NIST的AI风险管理框架和OWASP针对LLM的十大威胁相一致。

突出人工智能系统中最常见且后果严重的漏洞——从提示注入和不安全插件集成到模型中毒和数据泄露。将这些框架内的缓解措施应用于这六个领域有助于将指导转化为实际防御。一旦这些基础措施到位,团队可以专注于负责任地使用人工智能,了解何时信任自动化,何时保持人工参与。

平衡增强与自动化

人工智能系统能够像永不休息的实习生一样辅助人类从业者。然而,安全团队区分哪些任务需要自动化,哪些需要增强至关重要。某些任务从完全自动化中受益,特别是那些可重复、可测量且出错风险低的任务。而其他任务则需要直接的人类监督,因为情境、直觉或伦理比速度更为重要。

威胁丰富、日志解析和警报去重是自动化的最佳候选者。这些都是数据密集型、模式驱动的过程,一致性优于创造力。相比之下,事件范围界定、归因和响应决策依赖于人工智能无法完全理解的情境。在此情况下,人工智能应通过呈现指标、建议下一步行动或总结发现来提供帮助,而从业者保留决策权。

找到这种平衡需要在流程设计上的成熟度。安全团队应根据其对错误的容忍度和自动化失败的成本对工作流程进行分类。在假阳性或遗漏细节的风险较高的地方,保持人工参与。在精度可以客观衡量的地方,让人工智能加速工作。

加入我们参加SANS Surge 2026!

我将在SANS Surge 2026(2026年2月23日至28日)的主题演讲中深入探讨这一话题,我们将探讨安全团队如何确保人工智能系统的可靠性。如果您的组织正在快速采用人工智能,此次活动将帮助您更安全地推进。加入我们,与同行交流,向专家学习,亲眼见证实际应用中的安全人工智能。

注册参加SANS Surge 2026

本文由SANS研究所研究员Frank Kim贡献。

如果您对这篇文章感兴趣,

请关注我们的

Google新闻

Twitter

LinkedIn

以获取更多独家内容。

(以上内容均由Ai生成)

你可能还想读

TCS推AI机器狗进军航空业

TCS推AI机器狗进军航空业

快速阅读: 据印度塔塔咨询服务公司(TCS)发布消息称,全球航空航天业加速绿色智能化转型,40%企业预计五年内实现“熄灯工厂”,数字孪生与eVTOL成重点方向,物理AI机器人有望获批用于高危场景。 日前,全球航空航天产业加速向绿色化、智能化 […]

发布时间:2025年12月8日
Meta签约多家媒体,为AI提供实时新闻

Meta签约多家媒体,为AI提供实时新闻

快速阅读: 据媒体报道,Meta与CNN、福克斯新闻等多家国际媒体签署AI数据合作协议,重启付费合作以提升Meta AI在新闻时效性与准确性方面的表现,并引导用户访问合作方网站。 日前,美国科技企业Meta宣布与多家国际新闻机构签署商业人工 […]

发布时间:2025年12月8日
Semaverse推AI平台赋能并购决策

Semaverse推AI平台赋能并购决策

快速阅读: 据最新消息,人工智能初创企业Semaverse近日推出“并购智能基础设施”平台,依托多智能体架构与智能记忆系统,为私募股权基金等提供覆盖交易全周期的五大智能化功能,助力数据驱动决策。 近日,人工智能初创企业Semaverse正式 […]

发布时间:2025年12月8日
Gartner建议全面禁用AI浏览器

Gartner建议全面禁用AI浏览器

快速阅读: 据Gartner发布消息称,AI浏览器存在严重数据安全与隐私风险,其侧边栏功能可能自动上传敏感信息至云端,企业部署前须严格评估后端安全机制并限制高危操作场景。 日前,国际知名研究机构Gartner发布风险警示,指出当前流行的AI […]

发布时间:2025年12月8日
利雅得航空携手IBM打造全球首家AI原生航司

利雅得航空携手IBM打造全球首家AI原生航司

快速阅读: 据最新消息,IBM依托混合云与红帽OpenShift技术,为175国客户提供AI及量子计算等创新方案,加速金融、医疗等关键领域数字化转型,深化本地化服务以提升全球产业链智能化水平。 国际商业机器公司(IBM)日前宣布,其作为全球 […]

发布时间:2025年12月8日
英语国家民众对AI更悲观

英语国家民众对AI更悲观

快速阅读: 据YouGov发布消息称,其2025年8月对九国调查显示,西欧民众对AI态度较积极,英语国家更悲观,就业影响最受担忧,而医疗、办公等领域获普遍认可。 日前,国际民调机构YouGov发布一项涵盖九国的调查报告显示,公众对人工智能( […]

发布时间:2025年12月8日
AI无法替代税务专家的判断与质疑

AI无法替代税务专家的判断与质疑

快速阅读: 12月8日消息,专家警示AI在税务申报中存在合规与伦理风险,强调其无法替代专业判断,呼吁合理界定应用边界,防范不法机构借智能算法诱导激进申报,确保人机协同、合法合规。 近日,有关人工智能在税务申报领域应用的讨论引发关注。专家指出 […]

发布时间:2025年12月8日
德州法学院以伦理先行培养AI时代律师

德州法学院以伦理先行培养AI时代律师

快速阅读: 据彭博法律报道,美国得州多所法学院以伦理为先推动AI审慎融入法律教育,要求明确使用规范并强调人类判断不可替代,呼应州律师协会第705号伦理准则。 近日,美国得克萨斯州在人工智能时代积极探索法律教育的务实路径,强调以伦理为先、审慎 […]

发布时间:2025年12月8日