生成式 AI 和隐私是最好的敌人 – 一项新研究对最好和最坏的违规者进行了排名
快速阅读: 据《ZDNet》最新报道,Incogni报告评估了九款生成式AI的数据隐私,Mistral AI的Le Chat最注重隐私,Meta AI最不安全。部分AI如ChatGPT和Grok在透明度上表现较好,而微软、谷歌和Meta因数据共享政策评分较低。
图/视觉中国
大多数生成式AI公司都依赖用户数据来训练他们的聊天机器人。为此,他们可能会使用公共或私人数据。一些服务在收集用户数据方面更加不具侵入性和灵活性,而另一些则不是这样。一份来自数据删除服务Incogni的新报告探讨了在尊重个人数据和隐私方面,AI的优缺点。在报告《2025年生成式AI和大语言模型数据隐私排名》中,Incogni审查了九种流行的生成式AI服务,并应用了11个不同的标准来衡量它们的数据隐私实践。这些标准涵盖了以下问题:用于训练模型的数据是什么?用户的对话能否用于训练模型?提示信息能否与非服务提供商或其他合理实体共享?能否从训练数据集中删除用户个人信息?提示信息是否用于训练,这一点是否清晰?查找有关模型如何训练的信息有多容易?是否有明确的数据收集隐私政策?隐私政策的可读性如何?是否有明确的数据收集隐私政策?使用哪些来源收集用户数据?数据是否与第三方共享?AI应用程序收集哪些数据?参与研究的提供商和AI包括Mistral AI的Le Chat、OpenAI的ChatGPT、xAI的Grok、Anthropic的Claude、Inflection AI的Pi、DeekSeek、微软的Copilot、谷歌的Gemini以及Meta AI。每种AI在某些问题上表现良好,而在其他问题上则不尽如人意。另外:想要AI为你的业务工作?那么隐私必须放在首位。
例如,Grok在清楚地传达提示信息用于训练方面获得了良好的评分,但在隐私政策的可读性方面表现不佳。另一个例子是,ChatGPT和Gemini在移动应用数据收集方面的评分在iOS和Android版本之间存在很大差异。然而,在整个群体中,Le Chat被评为最注重隐私的AI服务。尽管它在透明度方面失去了一些分数,但在这方面仍然表现不错。此外,它的数据收集有限,并在其他AI特定的隐私问题上得分很高。ChatGPT排名第二。Incogni的研究人员对OpenAI的模型是如何训练的以及用户数据如何与服务互动表示了一定的担忧。但ChatGPT明确展示了公司的隐私政策,让你了解你的数据会发生什么,并提供了明确的方法来限制你数据的使用。(披露:Ziff Davis,ZDNET的母公司,于2025年4月对OpenAI提起诉讼,指控其在训练和运营AI系统时侵犯了Ziff Davis的版权。)Grok位列第三,随后是Claude和PI。每个都有某些领域的不足,但总体而言在尊重用户隐私方面表现相当不错。
Incogni在其报告中表示:“Mistral AI的Le Chat是最不具隐私侵犯性的平台,ChatGPT和Grok紧随其后。”“这些平台在如何透明地说明他们如何使用和收集数据,以及如何轻松退出使用个人数据训练底层模型方面排名最高。ChatGPT在是否使用提示信息进行模型训练方面最为透明,并拥有清晰的隐私政策。”
至于名单的下半部分,DeepSeek位列第六,接着是Copilot,然后是Gemini。这使得Meta AI排在最后,被评为最不注重隐私的AI服务。
另外:苹果如何在不牺牲隐私的情况下利用你的数据训练AI
根据AI特定的标准,如用于训练模型的数据以及用户对话是否可用于训练,Copilot在九项服务中评分最差。而Meta AI因整体数据收集与共享实践获得最差评分。Incogni表示:“由最大科技公司开发的平台被证明是隐私侵犯性最强的,其中Meta AI(Meta)最糟糕,其次是Gemini(Google)和Copilot(Microsoft)。”“Gemini、DeepSeek、Pi AI和Meta AI似乎不允许用户选择退出用提示信息训练模型。”
Incogni在他们的研究中发现,AI公司会与不同的方分享数据,包括服务提供商、执法部门、同一企业集团的成员公司、研究合作伙伴、附属公司和第三方。Incogni在报告中表示:“微软的隐私政策暗示用户提示信息可能与‘为微软提供在线广告服务的第三方或使用微软广告技术的公司’共享。”“DeepSeek和Meta的隐私政策表明提示信息可以与集团内公司共享。Meta和Anthropic的隐私政策可合理理解为提示信息会与研究合作者共享。”
对于一些服务,你可以防止你的提示信息被用于训练模型。这种情况适用于ChatGPT、Copilot、Mistral AI和Grok。然而,根据他们的隐私政策和其他资源,其他服务似乎无法阻止这种类型的数据收集。这些包括Gemini、DeepSeek、Pi AI和Meta AI。在这方面,Anthropic表示它从不收集用户提示信息来训练其模型。
另外:你的数据可能还没准备好用于AI——这里是如何使其可信
最后,一个透明且易于阅读的隐私政策在帮助你弄清楚正在收集哪些数据以及如何退出使用个人数据训练模型方面起着重要作用。Incogni表示:“拥有一个易于使用且内容简明的支持部分,让用户能够查找隐私相关问题的答案,已被证明能显著提升透明度和清晰度,只要它保持更新。”“许多平台的数据处理方式相似,但微软、Meta和谷歌等公司却因采用一份覆盖所有产品的统一隐私政策而受到影响。”
每天通过我们的《科技今日》新闻通讯获取当日头条新闻。
特色内容
苹果、谷歌和Facebook的160亿个密码泄露了吗?如何保护自己
为什么短信双因素认证代码不安全,该用什么代替
Meta的新款399美元Oakley智能眼镜几乎在所有方面都优于Ray-Bans
我告诉ChatGPT更多关于我的信息——这里是AI如何使用这些个人信息
为什么短信双因素认证代码不安全,该用什么代替
Meta的新款399美元Oakley智能眼镜几乎在所有方面都优于Ray-Bans
我告诉ChatGPT更多关于我的信息——这里是AI如何使用这些个人信息
(以上内容均由Ai生成)