由于主要 AI 平台与第三方共享个人信息,用户缺乏控制
快速阅读: 据《帮助网络安全》称,一些主流AI平台如Meta、谷歌和微软收集用户敏感数据并分享给第三方,缺乏透明度与删除机制。用户无法控制数据用途,可能泄露隐私及商业信息。
一些最受欢迎的生成式AI和大型语言模型(LLM)平台,如Meta、谷歌和微软等公司提供的平台,正在收集敏感数据,并将其与未知的第三方分享。根据Incogni的说法,这使得用户在如何存储、使用或共享其信息方面几乎没有透明度和控制权。AI平台将用户数据困于训练过程中。
许多这些平台,包括谷歌的Gemini、Meta AI、DeepSeek和Pi.ai,似乎并没有提供方式让用户选择不将他们的提示用于训练AI模型。一旦个人或敏感数据被输入,就缺乏有效的删除机制,无法将其从AI模型的训练数据集中移除。
一些最受欢迎的生成式AI和大型语言模型(LLM)平台,如Meta、谷歌和微软等公司提供的平台,正在收集敏感数据并将其与未知的第三方分享。根据Incogni的说法,这使得用户在如何存储、使用或共享其信息方面几乎没有透明度和控制权。AI平台将用户数据困于训练过程中。
尽管像GDPR这样的法律赋予个人要求删除数据的权利,但仍不清楚如何实际从机器学习模型中删除这些信息。因此,许多公司目前没有义务,或者在技术上无法在事后删除此类数据。联系方式或专有业务详情可能会嵌入到模型的训练数据中,用户可能未明确知晓或同意。
哪些数据被收集
随着生成式AI逐渐成为日常生活的一部分,用户往往不清楚这些工具收集了哪些个人数据,这些数据是如何被使用的,以及最终去向何处。研究人员分析了三个主要领域的11个子类别中的领先AI平台:用户数据在模型训练中的使用方式、每个平台隐私实践的透明度,以及数据收集和第三方共享的范围。
Meta.ai和Gemini收集了用户的精确位置信息和物理地址。
根据其Google Play商店页面显示,Claude会与第三方分享电子邮件地址、电话号码和应用交互数据。
Grok(xAI)可能与第三方分享用户提供的照片和应用交互数据。
Meta.ai会与外部实体(包括研究合作伙伴和企业集团成员)分享姓名、电子邮件地址和电话号码。
微软的隐私政策表明用户提示可能会与参与在线广告或使用微软广告技术的第三方分享。
Gemini、DeepSeek、Pi.ai和Meta.ai很可能未提供用户拒绝使用其提示训练模型的功能。
ChatGPT在说明哪些提示将用于模型训练的信息方面表现出最高的透明度,并拥有清晰的隐私政策。
即使是寻求清晰信息的用户,细节也常常隐藏在分散的帮助页面中,或者用复杂的法律术语写成。Incogni发现,每一份被分析的隐私政策都需要较高的阅读理解能力才能理解。
员工使用AI可能导致机密商业信息泄露
除了个人隐私外,企业可能面临更大的风险。
员工经常使用生成式AI工具来帮助撰写内部报告或沟通内容,却并未意识到这可能导致专有数据成为模型训练数据集的一部分。这种缺乏防护措施不仅使个人面临不必要的数据共享,还可能导致敏感的商业数据在与其他用户的未来互动中被再次利用,从而产生隐私、合规性和竞争风险。
“大多数人认为他们是在与一个可靠的助手聊天,不会泄露自己的联系方式或机密商业信息,”Incogni负责人Darius Belejevas表示,“现实情况更加侵入性,而且公司并没有让人们对你的数据究竟发生了什么变得容易理解。用户应该知道他们的数据被收集了什么,谁看到了它,以及如何阻止这种情况。目前,这些答案往往很难找到,甚至根本不存在。”
(以上内容均由Ai生成)