降低包装幻觉和“蹲下”的风险
快速阅读: 据《科技雷达专业版》称,2024年,网络安全专家警告“包幻觉攻击”风险上升,恶意代码通过LLM生成的虚假包传播。研究显示19.7%的代码为幻觉包,公司可通过预生成技术、代码审查等措施防范。
据Oxylabs风险管理部门主管Vaidotas Šedys透露,2024年,网络安全专家开始警告软件供应链面临一种新的威胁——“包幻觉攻击”。这种攻击中,恶意行为者利用大型语言模型(LLMs)生成含有恶意代码的虚假包,这些代码被意外地添加到合法代码中。与传统数字占位不同,攻击者使用由LLMs生成的幻觉包,增加了攻击风险,因为程序员可能在未评估和验证的情况下运行这些代码。
研究显示,LLMs生成的代码中,19.7%的包是幻觉包。这些幻觉包中,43%是重复出现的,38%的包名称与真实包相似或与其它编程语言中使用的包名称相同。这些特点使得“包幻觉攻击”成为可能,类似于“拼写错误占位”攻击,恶意行为者利用开发人员安装开源包时的拼写错误,植入恶意代码。
为了防范这种新型攻击,公司可以采取多种措施。首先是使用预生成技术,如自我修正、模型微调和检索增强生成(RAG)。这些技术可以在代码生成前减少幻觉包的数量。例如,GPT 4 Turbo、GPT 3.5和DeepSeek模型能够以超过75%的准确率识别幻觉包,通过多次迭代可以进一步提高成功率。
其次,公司还可以采用后生成技术,如生成后过滤和扫描恶意内容,但这些方法的效果相对较弱。最有效的方法是加强内部实践,确保代码在安全环境中测试,并实施同行代码审查程序。告知审查者哪些代码部分是由LLM生成的,可以提高同行评审的效果。依赖性分析工具也可以帮助识别潜在漏洞并提醒可疑包。
总之,随着LLMs在编程中的广泛应用,包幻觉成为一种新的网络安全威胁。通过结合使用预生成和后生成技术,并确保最佳内部实践,公司可以有效降低包幻觉攻击的风险。
(以上内容均由Ai生成)