确保AI安全:实现智能防御的关键步骤

发布时间:2025年10月21日    来源:szf
确保AI安全:实现智能防御的关键步骤

快速阅读: 人工智能在网络安全中展现巨大潜力,可减少警报疲劳、快速识别模式。但需确保AI系统安全,避免增加攻击面。通过建立信任、实施严格控制,AI可增强人类能力,实现更智能、快速、有效的防御。

人工智能(AI)在改善网络防御和简化安全人员工作方面展现出巨大潜力。它能帮助团队减少警报疲劳,更快识别模式,并实现人类分析师难以匹敌的规模效应。然而,要实现这一潜力,关键在于保障支撑AI运行的系统的安全性。

每个尝试将AI应用于安全运营的组织,无论有意还是无意,都在扩大其攻击面。缺乏明确的治理、强大的身份控制以及对AI决策过程的透明度,即使初衷良好的部署也可能快速产生风险,超过其降低风险的能力。为了真正从AI中获益,防御者需要以对待其他关键系统同样的严谨态度来保障AI的安全。这意味着建立对其学习数据的信任,对其采取行动负责,并对其产生的结果进行监督。当正确保障时,AI可以增强而不是替代人类能力,帮助从业者更智能地工作,更快响应,更有效地防御。

建立代理型AI系统的信任

随着组织开始将AI整合到防御工作流程中,身份安全成为信任的基础。现在,每个在生产环境中运行的模型、脚本或自主代理都代表了一个新的身份——能够访问数据、发出命令并影响防御结果。如果这些身份没有得到适当管理,原本旨在加强安全性的工具可能会悄悄变成风险来源。

代理型AI系统的出现使这一点尤为重要。这些系统不仅分析,还可能在无人干预的情况下行动。它们会自动处理警报、丰富上下文或触发响应剧本,在人类操作员授权下运行。每一次行动实际上都是信任的一次交易。这种信任必须与身份绑定,通过政策认证,并能够全程追溯。

应用于人和服务的安全原则现在也应适用于AI代理:

– 权限范围和最小权限原则,确保每个模型或代理只能访问其任务所需的数据和功能。

– 强认证和密钥轮换,防止冒充或凭证泄露。

– 活动溯源和审计日志,确保每个AI发起的行动都能被追踪、验证并在必要时撤销。

– 分割和隔离,防止跨代理访问,确保一个被攻破的过程不会影响其他过程。

实际上,这意味着将每个代理型AI系统视为IAM框架内的首要身份。每个系统都应有一个明确的所有者、生命周期策略和监控范围,就像任何用户或服务账户一样。防御团队应持续验证这些代理的实际能力,而不仅仅是其预期能力,因为实际能力往往比设计能力变化得更快。确立身份为基础后,防御者可以将注意力转向保障更广泛的系统安全。

保障AI安全:成功最佳实践

保障AI安全始于保护使其成为可能的系统——即现在融入日常安全运营的模型、数据管道和集成。就像我们保护网络和终端一样,AI系统也必须被视为关键基础设施,需要分层且持续的防御。

SANS安全AI蓝图提供了一个明确的起点,即“保护AI”路径。该蓝图基于SANS关键AI安全指南,定义了六个可以直接转化为实践的控制领域:

– 访问控制:对每个模型、数据集和API应用最小权限和强认证。持续记录和审查访问,以防止未经授权的使用。

– 数据控制:验证、清理和分类所有用于训练、增强或推理的数据。安全存储和血统追踪减少了模型中毒或数据泄露的风险。

– 部署策略:通过沙箱、CI/CD门控和红队测试,在发布前加固AI管道和环境。将部署视为受控、可审计的事件,而非实验。

– 推理安全:通过输入/输出验证、防护栏和高影响力行动的升级路径,保护模型免受提示注入和误用。

– 监控:持续观察模型行为和输出,寻找漂移、异常和妥协迹象。有效的遥测技术使防御者能够在操纵扩散之前发现。

– 模型安全:在整个生命周期中对模型进行版本控制、签名和完整性检查,以确保真实性和防止未经授权的替换或重新训练。

这些控制措施直接与NIST的AI风险管理框架和OWASP针对LLM的十大威胁相一致。

突出人工智能系统中最常见且后果严重的漏洞——从提示注入和不安全插件集成到模型中毒和数据泄露。将这些框架内的缓解措施应用于这六个领域有助于将指导转化为实际防御。一旦这些基础措施到位,团队可以专注于负责任地使用人工智能,了解何时信任自动化,何时保持人工参与。

平衡增强与自动化

人工智能系统能够像永不休息的实习生一样辅助人类从业者。然而,安全团队区分哪些任务需要自动化,哪些需要增强至关重要。某些任务从完全自动化中受益,特别是那些可重复、可测量且出错风险低的任务。而其他任务则需要直接的人类监督,因为情境、直觉或伦理比速度更为重要。

威胁丰富、日志解析和警报去重是自动化的最佳候选者。这些都是数据密集型、模式驱动的过程,一致性优于创造力。相比之下,事件范围界定、归因和响应决策依赖于人工智能无法完全理解的情境。在此情况下,人工智能应通过呈现指标、建议下一步行动或总结发现来提供帮助,而从业者保留决策权。

找到这种平衡需要在流程设计上的成熟度。安全团队应根据其对错误的容忍度和自动化失败的成本对工作流程进行分类。在假阳性或遗漏细节的风险较高的地方,保持人工参与。在精度可以客观衡量的地方,让人工智能加速工作。

加入我们参加SANS Surge 2026!

我将在SANS Surge 2026(2026年2月23日至28日)的主题演讲中深入探讨这一话题,我们将探讨安全团队如何确保人工智能系统的可靠性。如果您的组织正在快速采用人工智能,此次活动将帮助您更安全地推进。加入我们,与同行交流,向专家学习,亲眼见证实际应用中的安全人工智能。

注册参加SANS Surge 2026

本文由SANS研究所研究员Frank Kim贡献。

如果您对这篇文章感兴趣,

请关注我们的

Google新闻

Twitter

LinkedIn

以获取更多独家内容。

(以上内容均由Ai生成)

你可能还想读

欧洲报告揭示AI新闻助手准确性问题,谷歌Gemini表现最差

欧洲报告揭示AI新闻助手准确性问题,谷歌Gemini表现最差

快速阅读: 欧洲广播联盟和BBC报告显示,AI平台传播新闻存严重风险,影响新闻生态,Perplexity和谷歌AI加剧公众信任下降,研究发现来源、准确性和背景问题是主要障碍。 欧洲广播联盟和BBC发布的一份新报告显示,使用生成式人工智能平台 […]

发布时间:2025年10月23日
AI热潮推动美股大涨,ChatGPT引发21万亿市值增长

AI热潮推动美股大涨,ChatGPT引发21万亿市值增长

快速阅读: 特朗普退让提振市场情绪,但股市上涨主因是AI热潮。自2022年11月ChatGPT推出以来,美国标普500指数市值增加21万亿美元。 特朗普倾向于退让提振了市场情绪,但推动股市上涨的主要动力是围绕生成式人工智能(AI)的炒作。在 […]

发布时间:2025年10月23日
北欧Riff获1600万美元A轮融资,助力企业级AI应用开发

北欧Riff获1600万美元A轮融资,助力企业级AI应用开发

快速阅读: 挪威Riff完成1600万美元A轮融资,累计2100万美元,由Northzone领投。Riff提供AI应用开发平台,支持多行业,旨在提升商业效果和项目成功率,新资金将用于市场扩展。 总部位于奥斯陆的Riff(原名Databutt […]

发布时间:2025年10月23日
Meta裁减AI部门约600岗位,加速技术竞赛

Meta裁减AI部门约600岗位,加速技术竞赛

快速阅读: Meta Platforms 从超级智能实验室裁减约600个职位,以加速AI技术发展。AI首席Alexandr Wang通知裁员,旨在加快决策,增加员工责任。Meta继续为TBD实验室招聘,该团队聚集高薪AI人才。 据报道,Me […]

发布时间:2025年10月23日
渠道伙伴成企业AI转型关键,助力解决安全与数据挑战

渠道伙伴成企业AI转型关键,助力解决安全与数据挑战

快速阅读: Gartner预测,至2026年80%企业将部署生成式AI,但安全与数据基础设施挑战成障碍。研究显示,近半数企业因安全顾虑暂缓云迁移,超半数数据无备份,70%企业过去一年遭遇网络攻击,平均损失五周生产力。VARs在协助企业克服安 […]

发布时间:2025年10月23日
英政府推出AI工具,大幅提高咨询反馈分析效率

英政府推出AI工具,大幅提高咨询反馈分析效率

快速阅读: 英国政府宣布加速人工智能发展,采用“汉弗莱”系列中的Consult工具,每年可节省75,000个人工工作日,该工具处理50,000份咨询回复仅需2小时,效率远超人工。 英国政府宣布,将加速推进人工智能的发展。此前一项研究发现,每 […]

发布时间:2025年10月23日
IBM新Z17主机助力营收大增,AI成增长引擎

IBM新Z17主机助力营收大增,AI成增长引擎

快速阅读: IBM在生成式AI领域赢得95亿美元订单,大型机收入同比增长59%,新Z17机器贡献显著。AI基础设施增长15%,存储成为关键销售点。 克里希纳指出,IBM在生成式AI领域赢得了95亿美元的订单,这是一个显著的成绩。此外,IBM […]

发布时间:2025年10月23日
英特尔之后,消息称美国政府欲用联邦资金入股多家量子计算公司

英特尔之后,消息称美国政府欲用联邦资金入股多家量子计算公司

快速阅读: 特朗普政府正与多家量子计算公司谈判,拟通过联邦资金注资换取股权,涉及IonQ、Rigetti Computing等,每家获至少1000万美元。 感谢IT之家网友 小兴365 的线索投递! IT之家 10 月 23 日消息,据《华 […]

发布时间:2025年10月23日