研究人员导致 GitLab AI 开发者助手将安全代码变成恶意代码
快速阅读: 《Ars Technica》消息,研究显示,AI助手可能被恶意利用以窃取机密信息。GitLab已限制Duo在非本域生成标签的功能,但无法阻止LLM执行不信任指令。开发者需审慎对待AI生成内容,将其视为潜在威胁来源。
例如,攻击者可以将指令插入到源代码或合并请求中,以泄露目标用户(以及所使用的Duo聊天机器人)可访问的机密资源,但这些资源通常属于保密范畴。由于Duo能够访问与使用者完全相同的资源,该指令会访问私人数据,将其转换为Base64格式,并附加到发往用户可控网站的GET请求标签里。随后,Base64编码将出现在网站日志中。这种技术让Mayraz得以从私有仓库以及Duo可能访问的任何保密漏洞报告中提取源代码。
Legit向GitLab报告了这一行为,GitLab对此作出回应,禁止了Duo渲染不安全标签(如``和`