开发者要小心:Slopsquatting & Vibe编码可能会增加AI驱动的攻击风险
快速阅读: 据《科技共和国》称,研究人员警告称,一种新的供应链攻击“垃圾包抢注”利用人工智能生成不存在的软件包,诱使开发者下载恶意内容。避免成为受害者的建议包括手动验证包名和使用安全工具。一些AI模型已提升自我检测能力。
安全研究人员和开发人员正在警惕一种新型供应链攻击——“垃圾包抢注”(slopsquatting)。这种攻击利用了人工智能生成错误信息的现象,通常被称为“幻觉”。随着开发者越来越多地依赖GitHub Copilot、ChatGPT和DeepSeek等编码工具,攻击者正利用人工智能倾向于虚构软件包的特性,诱导用户下载恶意内容。
术语“垃圾包抢注”最初由Python软件基金会的开发人员塞思·拉尔森创造,并由技术安全研究员安德鲁·内斯比特推广。它指的是攻击者注册实际上不存在但被人工智能工具错误建议的软件包;一旦上线,这些虚构的软件包可能包含有害代码。如果开发人员在未验证的情况下安装了其中之一——仅仅因为人工智能的建议——他们可能会无意间将恶意代码引入自己的项目,从而让黑客获得对敏感环境的后门访问权限。
与依赖人类拼写错误的“类型抢注”(typosquatting)不同,垃圾包抢注完全依赖于人工智能的缺陷以及开发人员对自动化建议的信任。这一问题并非空谈。德克萨斯大学圣安东尼奥分校、弗吉尼亚理工大学和俄克拉荷马大学的研究人员最近的一项联合研究表明,通过对16个大型语言模型(LLM)的超过576,000个AI生成的代码样本进行分析,他们发现大约五分之一的人工智能建议的包并不存在。这项研究揭示,“商业模型的幻觉包平均百分比至少为5.2%,开源模型为21.7%,包括多达205,474个独特的幻觉包名示例,进一步凸显了这一威胁的严重性和普遍性。”
更令人担忧的是,这些幻觉名称并非随机出现。在多次使用相同提示进行运行时,43%的幻觉包始终重新出现,表明这些幻觉是多么可预测。据安全公司Socket称,这种一致性为攻击者提供了攻击路径——他们可以监控人工智能行为,识别重复建议,并在他人之前注册这些包名。
该研究还注意到不同模型之间的差异:CodeLlama 7B和34B的幻觉率最高,超过30%;而GPT-4 Turbo的最低率为3.59%。一种名为“氛围编程”的新兴趋势可能加剧这一问题。这个术语由人工智能研究员安德烈·卡帕斯提创造,指的是开发人员描述他们想要的内容,人工智能工具生成代码的工作流程。这种方法很大程度上依赖于信任——开发人员经常复制粘贴人工智能输出的内容而不仔细检查所有内容。在这种环境中,幻觉包成为攻击者的简单入口点,尤其是在开发人员跳过手动审查步骤并完全依赖人工智能生成的建议时。
为了避免成为垃圾包抢注的受害者,专家建议:
1. 在安装前手动验证所有包名。
2. 使用扫描依赖项风险的包安全工具。
3. 检查可疑或全新的库。
4. 避免直接从人工智能建议中复制粘贴安装命令。
与此同时,好消息是:一些人工智能模型在自我检测能力方面有所提升。例如,根据早期测试结果,GPT-4 Turbo和DeepSeek可以在其输出中检测和标记幻觉包,准确率超过75%。
订阅网络安全内幕通讯,通过了解最新的网络安全新闻、解决方案和最佳实践来加强您组织的IT安全防御。每周一、二、四发送。
订阅网络安全内幕通讯
电子邮件地址
通过订阅我们的通讯,您同意我们的使用条款和隐私政策。您可以随时取消订阅。
(以上内容均由Ai生成)