Copilot 公开了私有 GitHub 页面,其中一些页面已被 Microsoft 删除
快速阅读: 据《Ars Technica》称,微软的Copilot人工智能助手被发现泄露了超过两万份私有GitHub仓库的内容,涉及一万六千多个组织。这些仓库最初公开后被设为私有,但Copilot仍能访问。问题源于微软搜索引擎必应对这些页面的缓存未及时更新。Lasso公司在2024年发现此现象,并报告给微软后,微软进行了相应调整,但Copilot仍能访问某些特定私有仓库。
微软的Copilot人工智能助手正在泄露包括谷歌、英特尔、华为、PayPal、IBM、腾讯甚至微软在内的超过两万份私有GitHub仓库的内容。这些仓库属于超过一万六千个组织,最初在GitHub上被公开发布,但后来被设置为私有,通常是在负责开发的人员意识到它们包含允许未经授权访问的认证凭据或其他类型的机密数据之后。在GitHub上,即使几个月后,这些私有页面仍能通过Copilot完整访问。AI安全公司Lasso在2024年下半年发现了这一现象。在2024年1月份发现Copilot继续存储并提供私有仓库后,Lasso开始评估问题的实际规模。幽灵仓库“意识到任何在GitHub上的数据,即使只是一瞬间是公开的,也可能被像Copilot这样的工具索引并暴露出来,我们对这种信息可以如此轻易地被访问感到震惊,”Lasso的研究员奥菲·德罗尔和巴尔·拉纳亚多周四在一篇帖子中写道。“为了全面了解问题的范围,我们着手自动化识别幽灵仓库(曾公开但现在私有的仓库)的过程,并验证我们的发现。”
在发现微软泄露了Lasso自己的一个私有仓库后,Lasso的研究人员追踪到必应的缓存机制存在问题。当这些页面首次公开发布时,微软搜索引擎对其进行了索引,而一旦这些页面在GitHub上变为私有,这些条目却从未被删除。由于Copilot主要使用必应作为其搜索引擎,因此这些私有数据也可以通过AI聊天机器人获取。在Lasso于2024年11月报告了这个问题后,微软引入了旨在解决该问题的更改。Lasso确认私有数据不再通过必应缓存获取,但随后又有一个有趣的发现——Copilot仍然可以访问一个微软因诉讼而设为私有的GitHub仓库。该诉讼声称该仓库托管了专门设计用于绕过公司生成式AI服务内置安全护栏的工具。该仓库随后从GitHub上被移除,但结果证明,Copilot仍在继续提供这些工具。
(以上内容均由Ai生成)