“有毒的”AI 模型可以释放现实世界的混乱。这些攻击可以预防吗?
快速阅读: 据《佛罗里达国际大学新闻》最新报道,研究团队结合联邦学习和区块链技术,开发出一种新方法,有效检测并清除AI训练数据中的恶意污染数据,保护关键领域如交通和医疗的AI系统安全,防止数据中毒攻击带来的严重后果。
人工智能对越来越多数据的无休止、贪婪需求可能是其致命弱点。或者至少,这是“毒素”渗透的最快途径。网络攻击者以虚假或误导信息的形式,悄悄将少量“有毒数据”注入至关重要的AI训练集。目的是破坏以前可靠的模型,使其完全转向另一个方向。
我们今天遇到的大多数AI系统——从ChatGPT到Netflix的个性化推荐——之所以能完成如此令人印象深刻的壮举,是因为它们经过了大量的文本、图像、语音和其他数据的训练。如果这些宝贵的资源被污染,模型的行为可能会变得不稳定。现实世界的后果远不止聊天机器人说出胡话或要求生成鸟的图片却输出飞机图片那么简单。一群坏人可能让自动驾驶汽车忽略红灯,甚至更大规模地触发电网故障和断电。
为防御各种数据中毒攻击的威胁,FIU网络安全研究人员团队结合了两种新兴技术——联邦学习和区块链——来更安全地训练AI。根据发表在《IEEE人工智能交易》上的研究,该团队的创新方法成功检测并清除了不诚实的数据,避免其危害训练数据集。
“我们建立了一种可应用于关键基础设施韧性、交通网络安全、医疗保健等领域的方法,”领导这项研究的FIU助理教授哈迪·阿米尼(Hadi Amini)说,他隶属于骑士基金会计算与信息科学学院。该团队的新方法第一部分涉及联邦学习。这种独特的AI训练方式使用一个小型训练模型版本,在你的设备上直接学习,并仅向公司服务器上的全球模型发送更新(而非你的个人数据)。尽管保护隐私,但这种方法仍易受数据中毒攻击的威胁。
“在数据到达模型之前验证用户数据的真实性是联邦学习的一大挑战,”阿米尼实验室的博士生埃文·摩尔(Ervin Moore),也是这项研究的主要作者解释道。“因此,我们开始考虑区块链来解决这个问题。”区块链因其在比特币等加密货币中的应用而闻名,是一种分布式在网络计算机上的共享数据库。数据存储在——没错——按时间顺序链接的区块链中。每个区块都有自己的指纹,以及前一个区块的指纹,使其几乎不可篡改。整个链条遵循特定结构(数据如何打包或分层在区块内)。这就像一种审查机制,确保随机区块不会被添加。可以将其视为一个准入清单。
研究人员在构建模型时利用了这一点。他们对比区块更新,计算潜在异常更新是否可能有毒。潜在有毒更新被记录后从网络聚合中删除。
“我们的团队正与国家交通网络安全与恢复中心的合作者紧密合作,利用前沿量子加密技术保护数据和系统,”阿米尼说,他还领导着FIU研究团队,该团队正在美国交通部资助的中心内研究连接和自动驾驶交通工具系统的安全AI。
“我们的目标是在利用先进AI增强交通系统的同时,确保美国交通基础设施的安全和保障。”
摩尔将继续这项研究,作为他正在进行的开发用于关键基础设施安全的可靠AI算法研究的一部分。他的研究部分由新成立的机器学习驱动的关键基础设施恢复力高级教育与研究中心(ADMIRE)提供的奖学金以及国家交通网络安全与恢复中心资助。
(以上内容均由Ai生成)