代理 AI 可能需要数年时间才能实现安全转型,但网络防御者必须立即做好准备
快速阅读: 据《Beta新闻》最新报道,生成式人工智能正深刻影响网络安全,攻击者利用其提升攻击效率,防御者需提前布局,采用自主型人工智能加强威胁检测与响应,以应对未来更复杂的网络威胁。
生成式人工智能可能需要多年时间才能彻底改变网络安全,但网络防御者现在就必须做好准备。
2025年3月30日
作者:索罗布·卡泽鲁尼
过去两年里,世界被一股生成式人工智能热潮席卷。这项技术已经从数据科学的一个好奇事物发展成为我们日常生活中无处不在的一部分。仅ChatGPT就拥有超过三亿的每周活跃用户,人们每天使用大型语言模型(LLMs)来生成文本、图像、音乐等。
尽管生成式人工智能取得了广泛的成功,但开发出能够充分利用可信人工智能系统的强大应用仍然困难重重。这一点在消费者导向的生成式人工智能应用与企业对企业集成生成式人工智能之间存在差距时最为明显。然而,随着自主型人工智能的到来,这种情况即将改变。
**众人拾柴火焰高**
自主型方法利用经过提示和微调的LLM“代理”,并仅授予它们完成明确目标所需的必要工具,而不是直接承担端到端的任务。想象一下,你想用LLM编写代码。一种标准的方法是提示LLM以专家编码员的身份行事,并要求它为描述的问题编写代码。然后,用户只能祈祷它能顺利进行,而不会出现太多不准确的地方。
相反,自主型人工智能模型将高层次的目标分解为明确的小任务,为每个小目标配备单独的代理来执行。一个代理可能负责协调,另一个编写代码,另一个编写单元测试,还有一个调试可能出现的错误。最终结果会更加稳定、精准且可重复——使得自主型人工智能能够承担更多关键任务。
但这对网络安全领域意味着什么?攻击者已经在使用生成式人工智能来增强攻击,而任何小的失误都可能导致引人注目的数据泄露?自主型人工智能会引发安全转变吗?
**攻击者的武器升级**
在未来几个月乃至更长时间内,攻击者将继续优化他们对人工智能的使用。这很可能意味着坚持使用更成熟的生成式人工智能方法来研究潜在受害者、大规模实施鱼叉式网络钓鱼攻击,并节省乏味任务的时间。从编程到回答简单安全问题的机械性操作都将尽可能地交给LLMs处理。
至于自主型人工智能,目前最前沿的应用案例将在幕后开始发生。威胁行为者已经开始试验,使用LLMs部署自己的恶意人工智能代理,这些代理可以执行端到端的自主攻击。这些威胁行为者正在测试代理在不需要人工干预的情况下能够执行完整攻击的程度。但是,我们还需要几年时间才能看到这种类型的代理能够可靠地部署并在野外实际执行攻击。
虽然自主型人工智能能力对于网络犯罪分子而言,在时间和成本上进行大规模攻击将极具经济效益,但没有人类协助的情况下依赖这种自主代理是不准确的。然而,威胁行为者创建用于攻击各个方面的生成式人工智能代理只是时间问题——从研究和侦察、标记和收集敏感数据,到自主传输数据而无需人类指导。一旦实现这一点,组织面临的隐蔽攻击的数量和种类将会增加十倍。
更重要的是,在没有恶意人类参与的情况下,行业需要改变识别攻击迹象的方式。这可能是行业的重大转变,需要更精确的检测和响应策略。
**防御者的反击**
防御者必须积极应对自主型人工智能,而非被动应对。虽然网络犯罪分子可能还需要数年时间才能充分发挥自主型人工智能在攻击中的潜力,但网络安全防御者不能坐视不管。再一次,网络安全行业陷入了一场人工智能军备竞赛,必须立即采取行动,将其纳入安全战略中。
通过使用自主型人工智能加速威胁分析、缩短事件响应时间,并协助安全团队做出决策,组织可以部署自己的人工智能代理团队,更有效地识别并应对攻击。未来,人工智能代理甚至可能具备自主威胁调查的能力。
在威胁检测领域,这要求组织部署高质量的预测性人工智能模型,这些模型能够将各种高维数据源过滤成可操作的信号,无论是通过检测还是上下文,以此来启动调查过程。
**知情代理**
在安全行业中有效应用生成式人工智能将需要有意识且深思熟虑的方法来构建稳健且可信的解决方案,因此,这意味着越来越多地采用自主型方法。为了建立一支有能力且高效的AI代理队伍,组织需要奠定正确的基础。如果没有高质量的安全和人工智能知识,自动化SOC运营最终可能会给团队带来更多的工作量,而不是减轻压力。
在安全行业中有效应用生成式人工智能将需要有意识且深思熟虑的方法来构建稳健且可信的解决方案,因此,这意味着越来越多地采用自主型方法。
**图片来源**:Twoapril Studio/Dreamstime.com
索罗布·卡泽鲁尼,Vectra AI的人工智能研究专家。
**分享**:
推特 | 钉住 | 邮件 | 短信
(以上内容均由Ai生成)