谷歌发布VaultGemma AI,保护隐私不泄露数据
快速阅读: 谷歌推出新模型VaultGemma,采用差异隐私技术防止敏感信息泄露,同时保持模型性能,标志AI隐私保护重要进展。
训练AI模型可以提供强大的新见解,但也可能导致敏感信息泄露。为此,谷歌最近发布了一款从底层设计以防止此类隐私泄露的新模型。
大型语言模型是提取公司所拥有的大量非结构化数据中有价值信息的一种有前景的方法。然而,这些数据中往往包含大量关于客户、知识产权和公司财务的高度敏感细节。
问题是,语言模型往往会记住部分训练数据,并偶尔原样输出。这使得确保这些模型不在错误的情境下向错误的人透露私人数据变得非常困难。
一种潜在的解决方案是差异隐私技术,它允许在不揭示底层信息具体细节的情况下提取洞察。不过,这种方法会使AI模型的训练效果大打折扣,需要更多的数据和计算资源才能达到一定的准确度。
如今,谷歌的研究人员已经研究出了在隐私保障、计算预算和数据需求之间的权衡关系,提出了一种高效构建隐私保护AI模型的方法。他们利用这一方法创建了一个名为VaultGemma的10亿参数模型,其性能与早期类似规模的模型相当,表明可以在不完全牺牲能力的前提下保护隐私。
“VaultGemma标志着我们在构建既强大又私密的AI道路上迈出了重要一步。”研究人员在博客文章中写道。
差异隐私技术通过在AI训练过程中注入少量噪声或随机数据来实现。这不会改变模型学习到的整体模式和洞见,但会掩盖特定数据点的贡献,从而降低模型记忆数据集中特定细节的能力。
然而,该技术提供的隐私保护程度(即隐私预算)与训练过程中添加的噪声量成正比。添加的噪声越多,训练过程的效果就越差,所需的数据和计算资源也就越多。这三者之间复杂的相互作用使得找到构建具有特定隐私保障和性能的模型的最佳方法变得非常棘手。
(以上内容均由Ai生成)