微软揭露AI聊天隐私漏洞,加密数据仍可泄露话题
快速阅读: 微软发现AI聊天机器人“低语泄漏”隐私漏洞,即使对话加密,攻击者仍可通过分析数据包大小和传输时间推测对话主题,准确率超98%。微软建议使用AI时采取预防措施,如使用VPN。
微软揭示了一项隐私漏洞,可能导致你在使用类似ChatGPT的人工智能聊天机器人时,即使对话内容经过加密,也可能被泄露。这个被称为“低语泄漏”的漏洞意味着,监控你互联网连接的人可能推断出你是否在询问关于金融犯罪、政治或其他机密事项的敏感问题。
虽然我们的实际对话内容仍然安全且不可读,但数据在你和AI服务之间流动的方式可能透露足够多的信息,让他人做出合理的猜测。这就好比通过磨砂玻璃观察某人的轮廓,尽管看不清细节,但可以判断他们是在跳舞、做饭还是锻炼,因为这些活动有不同的运动模式。“低语泄漏”通过分析加密数据包的节奏和大小来推测对话主题。
根据微软安全专家Jonathan Bar Or、Geoff McDonald及微软Defender安全研究团队的研究,这一漏洞源于AI聊天机器人逐字显示回复,而不是一次性展示完整答案。这种流式特性使得对话感觉更加自然,但也无意中带来了隐私风险。
攻击者可以通过分析加密数据包的大小和传输时间来实施攻击。具备监控互联网流量能力的政府机构、网络服务提供商、本地网络上的黑客,甚至是连接到同一咖啡店Wi-Fi的人,都可能利用这项技术。值得注意的是,他们无需破解加密,就能通过观察加密数据的流动模式,结合数据包的大小和间隔时间,使用高级软件准确推测出对话的主题。
为了证明这一漏洞的存在,微软研究人员训练了计算机程序来识别对话模式。他们在Mistral、xAI、DeepSeek和OpenAI等公司的热门AI聊天机器人上进行了测试,结果令人担忧:该软件能够以超过98%的准确率正确识别特定的对话主题。
“低语泄漏”的另一个令人不安之处在于,它随着使用时间的增长而变得更加有效。当攻击者收集更多关于特定主题的对话样本时,他们的检测软件在识别这些主题方面会变得更加精准。如果他们长时间监控同一个人的多次对话,准确性将进一步提高。微软指出,资源充足的耐心对手甚至可以实现高于98%的成功率。
好消息是,主要的AI提供商已经开始解决这一漏洞。在微软报告了这个问题后,OpenAI、微软和Mistral采取了一种巧妙的方法:向每个回复中添加不同长度的随机乱码。这些额外的填充扰乱了攻击者依赖的模式,使攻击失效。这就像在无线电信号中加入随机噪音,信息仍能清晰地传达给你,但试图分析传输模式的人会被干扰所迷惑。
如果你担心在使用AI聊天机器人时的隐私问题,微软建议采取以下预防措施:
– 避免在连接公共或不受信任的Wi-Fi网络时讨论高度敏感的话题。尽管咖啡店的热点很便捷,但它也是攻击者可能监控你流量的地方。
– 使用虚拟专用网络(VPN),它通过加密隧道路由你的流量,增加了一层额外的保护,使得监控你的连接变得困难。
– 查看你常用的AI服务是否已经实施了针对“低语泄漏”的保护措施。OpenAI、微软和Mistral等公司已经部署了修复措施。
– 在讨论极其敏感的事务时,考虑是否真的需要使用AI辅助,或者是否可以等到使用更安全的网络环境再进行对话。
“低语泄漏”的发现正值人们日益关注AI聊天机器人的安全性之际。思科研究人员最近的一项研究检查了来自Meta、Google、Microsoft和OpenAI等主要科技公司的八款流行AI模型,发现这些系统容易受到通过长时间互动对话的操纵。
当前AI模型在长时间对话中难以持续遵守安全规则。攻击者有时通过持续的多步骤提问逐渐削弱防护措施,最终使AI提供信息或执行其应拒绝的任务。
这些发现强调了现代安全的一个重要教训:加密并不能保证绝对隐私。即使实际内容被加密且不可读,元数据(关于信息的信息)仍可能泄露敏感细节。
这就像隐藏邮件内容但留下回信地址一样。监控你邮箱的人可能不会阅读信件,但他们可以通过了解你与谁通信及频率来获取大量信息。
Whisper Leak的发现及时提醒我们,随着AI技术日益强大和普及,安全考虑也需随之发展。隐私保护不仅要注意内容本身,还要关注交流模式中浮现的线索。
(以上内容均由Ai生成)