GPUHammer 对 NVIDIA GDDR6 的攻击:破坏 AI 模型
快速阅读: 据《Guru3D.com》最新报道,多伦多大学发现GPUHammer攻击,可翻转NVIDIA显卡GDDR6内存比特,影响AI模型性能。该攻击利用Rowhammer技术,建议启用ECC防护。
11月15日,多伦多,多伦多大学的研究人员发现了一种名为GPUHammer的新攻击方法,该方法能悄无声息地在NVIDIA显卡的GDDR6内存中翻转比特,严重损害人工智能模型的性能。在一次演示中,攻击导致模型准确率从80%骤降至接近零。GPUHammer利用了Rowhammer技术,这种技术通过频繁访问某一行内存,引起相邻行的电气干扰,从而改变内存中的数据。虽然最初这一技术主要影响CPU中的DDR4内存,但研究发现NVIDIA显卡上的GDDR6显存也存在同样的风险。
研究人员指出,在共享环境如云GPU实例中,攻击者可以通过敲击特定的内存地址实现比特翻转,而传统杀毒软件或完整性检查难以检测此类攻击。一旦模型参数中的比特被翻转,权重矩阵可能发生不可预测的变化,导致模型性能大幅下降。研究团队在多个内存银行中观察到了多位翻转现象,即使在启用基本保护措施的情况下也是如此。
为了应对这一威胁,NVIDIA建议启用ECC(错误校正码),这是一种能够实时检测并修复大多数单比特错误的技术。虽然启用ECC会带来约10%的机器学习性能损失和约6.5%的VRAM容量减少,但它能有效抵御这类攻击。现代NVIDIA显卡,如基于Ampere、Ada、Hopper和Turing架构的型号,已经内置了ECC功能。对于较旧的工作站和服务器显卡,用户需要通过驱动程序设置或控制面板手动开启ECC。
对于个人用户而言,GPUHammer的威胁相对较小,除非与他人共享同一块显卡。然而,对于多租户云、AI训练集群或虚拟桌面环境,这一威胁不容忽视。研究团队呼吁云服务商和开发者检查其GPU配置,确保ECC功能已启用,并监控模型性能的异常变化。此外,开发者可以在应用层添加检查机制,如对关键数据结构进行哈希处理,以检测意外损坏。从长远看,GPU厂商可能需要优化内存设计,引入更可靠的错误检测机制,以提高系统的安全性。
(以上内容均由Ai生成)