UCR开发新方法,从AI模型中清除个人数据
快速阅读: 加州大学河滨分校团队开发出“无源认证遗忘”技术,可在不访问原始数据的情况下从AI模型中删除私密和受版权保护的信息,节省成本和能源,助力隐私保护合规。
加州大学河滨分校的一组计算机科学家开发了一种方法,可以在不访问原始训练数据的情况下,从人工智能模型中删除私人和受版权保护的数据。这项技术在7月的加拿大温哥华国际机器学习会议上进行了详细介绍,解决了全球范围内关于个人和受版权保护材料在人工智能模型中永久存在的问题,尽管原创建者已采取措施删除或通过付费墙和密码保护这些信息。
加州大学河滨分校的研究团队由博士生Ümit Yiğit Başaran、教授Amit Roy-Chowdhury和助理教授Başak Güler组成,他们发明了一种使人工智能模型“忘记”特定信息的方法,同时保留模型的其余功能。这种方法可以在不重新使用大量原始训练数据的情况下对模型进行修正,节省了成本和能源。即使原始训练数据不再可用,该方法也能删除私人信息。
“在实际情况下,我们无法总是回到源头获取原始数据。”Ümit Yiğit Başaran说,“我们创建了一个认证框架,即使没有原始数据也能工作。”随着新的隐私法规出台,如欧盟的《通用数据保护条例》和加州的《消费者隐私法》,科技公司面临越来越大的压力。此外,《纽约时报》正在起诉OpenAI和微软,指控其使用《纽约时报》的许多受版权保护的文章来训练生成预训练转换器模型。
人工智能模型通过从互联网上抓取的大量文本中“学习”词语模式。当用户提问时,模型会预测最可能的词语组合,生成自然语言响应。有时,模型会几乎逐字复制训练文本,使用户能够绕过内容创作者的付费墙。加州大学河滨分校的研究团队开发了一种“无源认证遗忘”方法,允许开发者使用一个与原始数据统计相似的替代数据集来删除目标数据。系统通过调整模型参数并添加精心校准的随机噪声,确保目标信息被删除且无法重建。
他们的框架基于一种在人工智能优化中高效近似模型重新训练变化的概念。UCR团队通过一种新的噪声校准机制改进了这种方法,以补偿原始数据和替代数据集之间的差异。研究人员使用合成和真实世界的数据集验证了该方法,发现它提供的隐私保证接近完全重新训练的结果,但所需的计算能力要少得多。
目前,这项技术适用于较简单的模型,但最终可能扩展到像ChatGPT这样的复杂系统。除了遵守法规,该技术还为媒体机构、医疗机构和其他处理嵌入在人工智能模型中的敏感数据的组织提供了希望。它还可以赋予人们要求从人工智能系统中删除个人或受版权保护内容的权利。“人们应该知道他们的数据可以从机器学习模型中删除——不仅是在理论上,而且是以可证明的、实际的方式。”Başak Güler说。
研究团队的下一步是完善该方法,使其适用于更复杂的模型类型和数据集,并开发工具使该技术在全球范围内对人工智能开发者可用。论文题目为《无源认证遗忘方法》,合作者包括布鲁克海文国家实验室的计算科学研究员Sk Miraj Ahmed,他曾在UCR获得博士学位。Roy-Chowdhury和Güler均是电气与计算机工程系的教员,同时在计算机科学与工程系担任兼职。
(以上内容均由Ai生成)