确保AI安全:实现智能防御的关键步骤

发布时间:2025年10月21日    来源:szf
确保AI安全:实现智能防御的关键步骤

快速阅读: 人工智能在网络安全中展现巨大潜力,可减少警报疲劳、快速识别模式。但需确保AI系统安全,避免增加攻击面。通过建立信任、实施严格控制,AI可增强人类能力,实现更智能、快速、有效的防御。

人工智能(AI)在改善网络防御和简化安全人员工作方面展现出巨大潜力。它能帮助团队减少警报疲劳,更快识别模式,并实现人类分析师难以匹敌的规模效应。然而,要实现这一潜力,关键在于保障支撑AI运行的系统的安全性。

每个尝试将AI应用于安全运营的组织,无论有意还是无意,都在扩大其攻击面。缺乏明确的治理、强大的身份控制以及对AI决策过程的透明度,即使初衷良好的部署也可能快速产生风险,超过其降低风险的能力。为了真正从AI中获益,防御者需要以对待其他关键系统同样的严谨态度来保障AI的安全。这意味着建立对其学习数据的信任,对其采取行动负责,并对其产生的结果进行监督。当正确保障时,AI可以增强而不是替代人类能力,帮助从业者更智能地工作,更快响应,更有效地防御。

建立代理型AI系统的信任

随着组织开始将AI整合到防御工作流程中,身份安全成为信任的基础。现在,每个在生产环境中运行的模型、脚本或自主代理都代表了一个新的身份——能够访问数据、发出命令并影响防御结果。如果这些身份没有得到适当管理,原本旨在加强安全性的工具可能会悄悄变成风险来源。

代理型AI系统的出现使这一点尤为重要。这些系统不仅分析,还可能在无人干预的情况下行动。它们会自动处理警报、丰富上下文或触发响应剧本,在人类操作员授权下运行。每一次行动实际上都是信任的一次交易。这种信任必须与身份绑定,通过政策认证,并能够全程追溯。

应用于人和服务的安全原则现在也应适用于AI代理:

– 权限范围和最小权限原则,确保每个模型或代理只能访问其任务所需的数据和功能。

– 强认证和密钥轮换,防止冒充或凭证泄露。

– 活动溯源和审计日志,确保每个AI发起的行动都能被追踪、验证并在必要时撤销。

– 分割和隔离,防止跨代理访问,确保一个被攻破的过程不会影响其他过程。

实际上,这意味着将每个代理型AI系统视为IAM框架内的首要身份。每个系统都应有一个明确的所有者、生命周期策略和监控范围,就像任何用户或服务账户一样。防御团队应持续验证这些代理的实际能力,而不仅仅是其预期能力,因为实际能力往往比设计能力变化得更快。确立身份为基础后,防御者可以将注意力转向保障更广泛的系统安全。

保障AI安全:成功最佳实践

保障AI安全始于保护使其成为可能的系统——即现在融入日常安全运营的模型、数据管道和集成。就像我们保护网络和终端一样,AI系统也必须被视为关键基础设施,需要分层且持续的防御。

SANS安全AI蓝图提供了一个明确的起点,即“保护AI”路径。该蓝图基于SANS关键AI安全指南,定义了六个可以直接转化为实践的控制领域:

– 访问控制:对每个模型、数据集和API应用最小权限和强认证。持续记录和审查访问,以防止未经授权的使用。

– 数据控制:验证、清理和分类所有用于训练、增强或推理的数据。安全存储和血统追踪减少了模型中毒或数据泄露的风险。

– 部署策略:通过沙箱、CI/CD门控和红队测试,在发布前加固AI管道和环境。将部署视为受控、可审计的事件,而非实验。

– 推理安全:通过输入/输出验证、防护栏和高影响力行动的升级路径,保护模型免受提示注入和误用。

– 监控:持续观察模型行为和输出,寻找漂移、异常和妥协迹象。有效的遥测技术使防御者能够在操纵扩散之前发现。

– 模型安全:在整个生命周期中对模型进行版本控制、签名和完整性检查,以确保真实性和防止未经授权的替换或重新训练。

这些控制措施直接与NIST的AI风险管理框架和OWASP针对LLM的十大威胁相一致。

突出人工智能系统中最常见且后果严重的漏洞——从提示注入和不安全插件集成到模型中毒和数据泄露。将这些框架内的缓解措施应用于这六个领域有助于将指导转化为实际防御。一旦这些基础措施到位,团队可以专注于负责任地使用人工智能,了解何时信任自动化,何时保持人工参与。

平衡增强与自动化

人工智能系统能够像永不休息的实习生一样辅助人类从业者。然而,安全团队区分哪些任务需要自动化,哪些需要增强至关重要。某些任务从完全自动化中受益,特别是那些可重复、可测量且出错风险低的任务。而其他任务则需要直接的人类监督,因为情境、直觉或伦理比速度更为重要。

威胁丰富、日志解析和警报去重是自动化的最佳候选者。这些都是数据密集型、模式驱动的过程,一致性优于创造力。相比之下,事件范围界定、归因和响应决策依赖于人工智能无法完全理解的情境。在此情况下,人工智能应通过呈现指标、建议下一步行动或总结发现来提供帮助,而从业者保留决策权。

找到这种平衡需要在流程设计上的成熟度。安全团队应根据其对错误的容忍度和自动化失败的成本对工作流程进行分类。在假阳性或遗漏细节的风险较高的地方,保持人工参与。在精度可以客观衡量的地方,让人工智能加速工作。

加入我们参加SANS Surge 2026!

我将在SANS Surge 2026(2026年2月23日至28日)的主题演讲中深入探讨这一话题,我们将探讨安全团队如何确保人工智能系统的可靠性。如果您的组织正在快速采用人工智能,此次活动将帮助您更安全地推进。加入我们,与同行交流,向专家学习,亲眼见证实际应用中的安全人工智能。

注册参加SANS Surge 2026

本文由SANS研究所研究员Frank Kim贡献。

如果您对这篇文章感兴趣,

请关注我们的

Google新闻

Twitter

LinkedIn

以获取更多独家内容。

(以上内容均由Ai生成)

你可能还想读

印尼副部长呼吁谨慎使用AI进行公共沟通

印尼副部长呼吁谨慎使用AI进行公共沟通

快速阅读: 印度尼西亚通信和数字事务部副部长Nezar Patria呼吁公共关系专业人员谨慎、道德地使用AI,强调AI虽具潜力,但需人类监督与伦理责任,确保沟通质量与真实性。 雅加达(ANTARA)- 印度尼西亚通信和数字事务部副部长Nez […]

发布时间:2025年10月23日
名人及AI巨头呼吁停止追求超智能

名人及AI巨头呼吁停止追求超智能

快速阅读: 超过700名科学家、政治人物和名人呼吁暂停开发超人工智能,直至技术安全可控且获公众支持。未来生命研究所发布公开信,强调当前AI发展路径与公众期望、安全性及伦理标准脱节。 超过700名科学家、政治人物和名人,包括哈里王子、理查德· […]

发布时间:2025年10月23日
保守活动人士因谷歌AI生成虚假信息起诉谷歌

保守活动人士因谷歌AI生成虚假信息起诉谷歌

快速阅读: 保守活动人士罗比·斯塔巴克因谷歌AI系统生成关于他的虚假信息,将其诉至特拉华州法院,要求至少1500万美元赔偿。谷歌称此为Bard误判所致,已尽力处理。 保守活动人士罗比·斯塔巴克周三对谷歌提起诉讼,指控这家科技巨头的人工智能系 […]

发布时间:2025年10月23日
拉夫劳伦推出AI购物体验,个性化服务引领未来时尚

拉夫劳伦推出AI购物体验,个性化服务引领未来时尚

快速阅读: 拉尔夫劳伦与微软合作推出AI对话购物工具“Ask Ralph”,提供个性化风格灵感,强调技术应提升品牌体验而非目的本身,展现AI个性化体验趋势。 9月,拉尔夫劳伦(与微软合作)发布了“Ask Ralph”,这是一款被描述为“由人 […]

发布时间:2025年10月23日
荣耀转型AI终端生态公司,方飞详解1 x 3 x N战略

荣耀转型AI终端生态公司,方飞详解1 x 3 x N战略

快速阅读: 荣耀董事长吴晖宣布转型为AI终端生态公司,提出1 x 3 x N战略,涵盖HONOR AI Connect平台及多项赋能措施,推动AI场景化落地,涉及教育、家居、健康等多领域。 感谢IT之家网友 風見暉一 的线索投递! IT之家 […]

发布时间:2025年10月23日
微软Photos推AI绘图与智能重塑新功能

微软Photos推AI绘图与智能重塑新功能

快速阅读: 微软在其Photos应用中推出AI驱动的Restyle Image和Image Creator功能,前者可智能重塑照片风格,后者能根据描述生成高质量图像,均支持隐私保护,旨在提升图像创作体验。 微软近日在其 Photos(照片) […]

发布时间:2025年10月23日
2025新一代人工智能创业大赛启动 全球招募火热进行中

2025新一代人工智能创业大赛启动 全球招募火热进行中

快速阅读: 网易传媒启动2025新一代人工智能创业大赛,聚焦AI新技术与应用,设三大赛道,面向A轮前团队,奖金总额100万元,提供多维指导与资源支持。 2025年10月22日,网易传媒正式启动 “2025新一代人工智能创业大赛”,面向全球创 […]

发布时间:2025年10月23日
谷歌量子芯片Willow实现可验证量子优势,性能超13000倍

谷歌量子芯片Willow实现可验证量子优势,性能超13000倍

快速阅读: 谷歌发布量子芯片Willow,成功运行“量子回声”算法,实现首个可验证的量子优势,比超级计算机快13,000倍,为新药研发和材料科学开辟新途径。 继量子计算研究团队荣获诺贝尔物理学奖之后,谷歌再次取得突破性进展。当地时间10月2 […]

发布时间:2025年10月23日