谷歌分析:AI生成恶意软件效果不佳易被检测
快速阅读: 一些AI公司声称AI生成的恶意软件构成新威胁,如Anthropic报告称其模型被用于开发高级勒索软件。但谷歌报告指出,AI工具尚未展现成功自动化或突破性功能,目前最大威胁仍依赖传统手段。
评估提供了强有力的反驳,针对一些人工智能公司夸大其词的说法——这些公司往往寻求新一轮的风险投资,声称AI生成的恶意软件广泛存在,并成为一种新范式,对传统防御构成当前威胁。例如,Anthropic最近报告称,发现一名威胁行为者利用其Claude大模型“开发、推广并分发了多个具有高级规避能力、加密技术和反恢复机制的勒索软件变种。”该公司进一步表示:“没有Claude的帮助,他们无法实现或调试核心恶意软件组件,如加密算法、反分析技术或Windows内部操作。”
初创公司ConnectWise最近也提到,生成式AI正在“降低威胁行为者进入游戏的门槛。”该帖子引用了一份来自OpenAI的独立报告,该报告发现有20个不同的威胁行为者使用其ChatGPT AI引擎来开发用于识别漏洞、开发利用代码和调试代码的恶意软件。BugCrowd在一项自我选择个体的调查中指出,“74%的黑客认为AI让入侵更加容易,为新手打开了大门。”
然而,在某些情况下,这些报告的作者也指出了与本文相同的局限性。谷歌周三发布的报告显示,在分析用于管理和隐蔽操作命令控制通道的AI工具时,“我们没有看到成功的自动化或任何突破性功能的证据。”OpenAI也表达了类似的观点。尽管如此,这些免责声明通常并不显眼,往往在炒作AI辅助恶意软件即将构成近期威胁的过程中被淡化。
谷歌的报告还提供了一个有用的发现。一名利用该公司Gemini AI模型的威胁行为者通过伪装成白帽黑客参与夺旗比赛的方式绕过了防护措施。这种竞争性练习旨在向参与者和观众教授和展示有效的网络攻击策略。所有主流的大语言模型都内置了防止其被恶意使用的防护措施,如用于网络攻击和自伤。谷歌表示,它已经对该对策进行了更好的微调,以抵抗此类伎俩。
最终,迄今为止出现的AI生成的恶意软件大多仍处于实验阶段,且成果并不令人印象深刻。值得关注的是,AI工具是否会带来之前未知的新能力的发展。不过,目前最大的威胁仍然主要依赖传统的手段。
(以上内容均由Ai生成)