AI新威胁:开发者需警惕“slopsquatting”攻击
快速阅读: AI工具助力开发提速,但也带来slopsquatting新威胁,黑客利用AI幻觉发布恶意包。专家建议加强AI安全策略,通过算法监控防范风险。
AI工具为开发者和软件工程师提供了显著的时间节省潜力,但也可能被利用来通过一种称为“slopsquatting”的新攻击向量引入恶意软件和其他威胁。slopsquatting是一种黑客利用AI常见的幻觉现象,诱骗工程师误安装恶意包的攻击方法。具体来说,黑客追踪由AI编码工具幻觉出的不存在包名称,然后在如PyPI这样的公共仓库下发布这些恶意包。受害者因信任其AI代码建议而安装了看似合法的包。
ITPro采访了Chainguard工程副总裁Dustin Kirkland,以了解有关slopsquatting及其在整个风险AI代码问题中的位置。Kirkland表示:“这可以看作是typosquatting的一种现代变体,我们多年来一直看到这种情况,从简单的URL错误到因拼写错误而进入恶意网站。”slopsquatting一词结合了typosquatting和‘AI slop’,后者是对低质量AI生成内容的贬称。
Kirkland提到,至少十年来,typosquatting一直是Python和Java领域的问题,几乎任何人都可以注册Python包并通过PIP安装。随着开发人员越来越多地使用AI进行大规模编写业务关键代码(即所谓的“vibe coding”),将这种攻击方法移植到AI中带来了风险。传统上,每行代码通常都会由人类维护者审查和批准,尤其是在开源世界中。然而,现在AI能够生成大量的代码,使得即使是最高产的维护者也难以全面验证。
Kirkland认为,有潜力让AI助手相互监督,通过训练指定代理识别slopsquatting、typosquatting及其他常见攻击的迹象,使用预定义算法实现这一目标。“当使用像AI这样的技术时,其中一个真正的优势在于,当发现新的恶意行为者slopsquatting的方式时,我们可以创建一个算法并全面更新单一模型。”
尽管如此,AI风险并未成为领导者的主要关注点。根据Chainguard的《2026工程现实报告》,该报告收集了来自美国、英国、法国和德国1200名软件工程师和技术领导者的回应,虽然大多数受访者对使用AI工具自动化工程工作流程中的任务表现出极大热情,但也有核心担忧阻碍了软件工程师对AI的全面采用。其中最大的担忧是AI的安全性和隐私问题,占17%的比例,其他主要担忧包括代码的信任度和影子AI的使用。
Kirkland认为,通过制定AI使用政策,这些担忧可以得到缓解。例如,Chainguard自2025年初开始实施了自己的“活文档”,明确规定了员工可以使用的可信AI工具,减少了运营风险,并有助于对开发人员安装的包和库进行监督。短期内,Kirkland建议公司可以通过更严格地验证包注册表和签名来防止来源不明的包被安装。长期来看,他认为slopsquatting和cybersquatting是可以解决的问题。随着AI安全工具的到位,只有最复杂的攻击才可能得逞。正如他所言,如今艺术博物馆被盗珠宝的事件已经很少见,这表明只要措施得当,网络安全同样可以得到有效的保障。
柯克兰相信,自动安全算法通过检查软件包的人气、年龄和作者,将确保slopsquatting和其他类似攻击成为例外而非常态。
确保在Google新闻上关注ITPro,以随时了解我们最新的新闻、分析和评测。
更多来自ITPro的内容:
资深开发人员全力投入vibe编码,但初级员工缺乏识别关键漏洞的经验。
vibe编码的安全风险及如何缓解这些风险。
谷歌大脑创始人安德鲁·吴认为每个人都应该通过‘vibe编码’工具学习编程。
(以上内容均由Ai生成)