“I Agree”背后的谎言
快速阅读: 《印度分析杂志》消息,隐私政策和同意在AI时代至关重要。专家认为现有模型不适合AI,需改进。吉达·皮斯蒂利指出同意存在范围、时间和自主性问题。建议采用选择加入模式,提供简单披露和细粒度权限,并加强独立监督。
对于一些人来说,隐私是一种神话;而对于另一些人来说,它却是绝对不可妥协的。然而,在涉及隐私时,隐私政策和同意却扮演着核心角色,尤其是在用户与当今世界的AI系统互动时。Hugging Face的首席伦理学家吉达·皮斯蒂利在其名为《我点击了“同意”,但我真正同意的是什么?》的博客文章中分享了她的担忧。这篇文章是对用户同意内容、问题所在以及如何解决这些问题的一个有趣分析。皮斯蒂利的观点围绕传统意义上的同意概念与数据实际输入AI系统的现实之间的差异展开。传统意义上的同意是指对数据收集和使用知情后的协议,而AI系统中的数据处理则完全不同。
AIM咨询了专家们,以确定传统的隐私同意系统在AI驱动的世界中是否足够。复杂到什么程度才算复杂?“这是一个复杂的问题。从法律角度而言,用户在使用任何AI系统前需同意服务条款和隐私政策,因此理论上他们是知情的,”F-Secure威胁顾问乔尔·拉托告诉AIM。拉托补充道:“但实际上,公司和用户都知道几乎没有人会阅读这些冗长的文件。”他警告说,同意的复选框只是公司的法律护盾,而非用户的保护措施。
Proton反滥用及账户安全负责人伊蒙·马奎尔告诉AIM,“就像我们在线浏览时大科技公司收集我们大量数据的担忧一样,AI被应用于众多功能意味着它处理的敏感数据越多,人们就越难避免向AI分享自己的信息。”马奎尔对少数AI公司在手中积累的权力和数据表示担忧。他表示:“需要改变——否则就太迟了。”
在她的博客文章中,皮斯蒂利解释了AI中同意存在的三个核心问题:范围、时间性和自主性陷阱。范围问题在于即便公司征求许可,用户也无法预测数据将如何被使用。她举了一个配音演员的例子,这位演员同意录制有声书,但永远无法知道基于其数据训练的AI是否会用于政治背书、提供财务建议等。她指出的第二个问题是AI在用户与其数据使用之间创造了开放式的关联。一旦数据被输入,用户将很难从中提取对AI系统的影响。第三个关注点是如何在不考虑数据未来用途的情况下同意AI的隐私政策。皮斯蒂利分享了Target零售公司的例子,该公司在父亲知道之前就揭示了一个十几岁女孩的怀孕!这被视为一个例子,即我们同意的数据被AI用来进行预测。
现有的隐私同意模型对AI系统而言并不适用。安全研究员索拉杰·萨特亚纳拉亚南告诉AIM,现有的隐私同意模型对AI系统而言并不适用,因为它们呈现复杂的法律协议,大多数用户都不会阅读。它们假设在收集数据时数据用途已知,并提供二元接受/拒绝选择。皮斯蒂利写道,当前的同意框架,如欧洲GDPR,往往未能妥善应对这些复杂的数据流及其隐私影响。
可以做些什么?拉托提出了一种提倡选择加入模式的解决方案,即除非明确允许,否则用户数据不会自动输入到训练数据集中。他强调,此类方案可能延缓大型语言模型的发展,这就是为什么公司不采取这种做法。“以DeepSeek为例:当它一夜之间流行起来时,它几乎没有任何隐私控制,可能是有意为之,但用户仍然蜂拥而至。这凸显了用户教育的重要缺失,这也是我个人致力于在自己的工作中解决的问题,”他说。
萨特亚纳拉亚南向AIM提出了他的改进系统构想,该系统需要详细披露隐私影响的关键细节,用更简单的术语解释数据的风险和用途,并引入细粒度权限供用户控制数据共享。此外,他还强调了随着系统演进而撤销同意的机制,以及确保AI系统遵守其声明目的的独立监督。
马奎尔告诉AIM,“隐私政策和同意协议需要更为具体,人们的数据使用方式应成为任何AI隐私协议的核心。”
(以上内容均由Ai生成)