AI 污染漏洞赏金平台与虚假漏洞报告
快速阅读: 据《网络安全新闻》称,漏洞赏金计划面临AI生成的虚假漏洞报告(AI垃圾)挑战,浪费维护人员时间且有时获赏金。这些报告技术性强但虚构,尤其影响缺乏安全专家的组织。开源项目curl遇类似案例,专家呼吁加强识别能力。
漏洞赏金计划曾因鼓励独立研究人员报告现实世界中的漏洞而受到赞誉,但现在正面临着来自人工智能生成的虚假漏洞报告的重大挑战。这些被称为“AI垃圾”的伪造提交正在越来越多地浪费维护人员的时间,更令人担忧的是,有时甚至获得实际的金钱奖励。这一现象代表了一个日益增长的趋势,即恶意行为者利用大型语言模型(LLMs)生成听起来技术性但完全虚构的安全报告。这些由AI生成的报告构成了一种特殊威胁,因为它们在初看起来往往显得合法,尤其是对没有专职安全专家的组织而言。这些报告通常包括技术术语、引用安全概念以及甚至建议补丁——都是为了通过初步筛选过程。然而,经过主题专家的仔细检查,这些报告很快就会暴露其欺诈本质,因为它们描述了无法重现的漏洞并引用了不存在的功能。
Socket.dev的研究人员已将这一趋势识别为对开源项目和资源不足的组织特别具有问题性,这些组织缺乏内部专业知识来正确评估技术安全报告。许多组织发现自己处于两难境地:投入时间和资源彻底调查每份报告,或者简单支付赏金以避免潜在的安全风险和负面宣传。最近一个高调案例涉及curl项目,该项目通过HackerOne收到了一份欺诈性漏洞报告。该报告被标记为H1#3125832,curl团队在发现它引用了不存在的功能并包含未经验证的补丁建议后,将其标记为AI生成的垃圾。据称,与@evilginx账户相关的攻击者已对其他组织使用了类似策略,在某些情况下成功获得了漏洞赏金。安全研究员Harry Sintonen指出,curl作为一个高度技术性的开源项目,拥有深厚的专业知识,立即识破了骗局。“攻击者严重误判了形势,”Sintonen表示,“curl能从很远的地方嗅出AI垃圾。”
AI垃圾漏洞报告剖析
当更仔细地查看这些伪造的报告时,几个明显的特征浮现出来。这些报告通常通过引用听起来合理的功能或方法来保持技术合法性的假象,而这些功能或方法实际上在代码库中并不存在。例如,在curl案例中,报告引用了一个名为“ngtcp2_http3_handle_priority_frame”的不存在函数。当被质疑时,攻击者会通过声称问题存在于特定的旧版本或新版本中来转移话题,通常引用编造的提交哈希值以进一步欺骗。这些报告故意对重现步骤保持模糊,使维护人员无法验证所声称的漏洞。它们常常结合合法的安全概念与虚构的实现细节,创造出一种看似合理的叙述,直到接受专家审查为止。这种方法专门针对漏洞赏金分类系统的弱点,其中有限的资源可能阻止对每个提交进行彻底调查。
Python软件基金会驻场安全开发人员Seth Larson确认,开源维护人员的时间越来越多地被审查此类AI生成的漏洞报告所消耗。“问题是,在LLM时代,这些报告乍一看可能看起来是合法的,因此需要时间来反驳,”Larson解释道,强调了这一现象如何加剧本已有限的开源安全生态系统资源的压力。
(以上内容均由Ai生成)