黑客展示AI如何被秘密劫持新方法
快速阅读: 乔治梅森大学研究人员发现,黑客可通过OneFlip攻击方法,仅需翻转内存中一个数据位,就能在不降低准确率的情况下,向AI系统植入隐蔽后门,影响自动驾驶、医疗和金融等领域。
乔治梅森大学的研究人员警告称,黑客可能仅凭内存中的微小“错误”就能破坏人工智能系统。他们揭示了一种名为OneFlip的新攻击方法,表明只需在内存中翻转一个数据位,就能破坏从自动驾驶汽车、医学影像到金融预测等各种应用的深度学习模型。
这种攻击的危险在于其隐蔽性。被篡改的人工智能系统仍能正常运行,通过测试并保持接近完美的准确性。但在表面之下,它携带了一个隐藏的后门,只有在特定条件下才会激活,使攻击者能够秘密操控模型的决策。
想象一下,一辆自动驾驶汽车在识别交通标志时几乎完美无缺,但在看到带有微小贴纸的停车标志时,却将其误认为绿灯。或者,医院的人工智能系统在分析扫描图像时表现正常,但当检测到隐藏水印时,会错误地将关键肿瘤分类。在金融领域,同样的手段可以促使模型错误报告风险或偏向某些股票,同时对普通用户看起来仍然完全可靠。
这一技术基于已知的硬件漏洞Rowhammer,通过反复访问内存中的某个区域,可以物理翻转相邻的数据位。攻击者通过瞄准存储人工智能模型权重的内存,可以引入几乎不可见的漏洞。虽然准确率下降不到0.1%,但当触发条件满足时,后门几乎完美地激活。
与常见的依赖污染训练数据或操纵输入的AI攻击不同,OneFlip在模型部署后操作,这使得防御和检测变得极其困难。传统的审计、再训练和微调都难以提供有效保护。
研究人员表示,目前实施这种攻击需要高深的知识和系统级访问权限。但随着人工智能在安全关键和高价值领域的广泛应用,这项研究凸显了一个紧迫的需求:AI安全必须扩展到存储模型的硬件层面。
看似无害的一个1或0的翻转,在错误的手中,可能会将人工智能从一个值得信赖的工具变成一个无声的武器。
(以上内容均由Ai生成)