永远不要对 ChatGPT 说这些话。它可能会回来咬你
快速阅读: 《电脑世界》消息,不可否认,ChatGPT等人工智能聊天机器人非常出色,但分享个人信息存在风险。这些信息可能被存储并用于训练更人性化的模型。尽管OpenAI承诺减少个人信息的使用,但仍可能发生数据泄露。公司也开始限制员工在工作中使用这类聊天机器人。政府正逐步加强对人工智能安全性的监管,但消费者仍需谨慎,避免过度分享个人信息。
不可否认,ChatGPT和其他人工智能聊天机器人是非常出色的聊天伴侣,几乎可以与你聊任何话题。如果你觉得分享个人信息是安全的,你并不孤单。注意!你并不是在和你的烤面包机对话。你告诉人工智能聊天机器人的任何信息都可能被存储在服务器上,并在未来再次出现,这使得它们本质上存在风险。为什么聊天机器人如此危险?问题在于运行大型语言模型(LLM)及其相关聊天机器人的公司如何使用你的个人信息——主要是为了训练更好的聊天机器人。以电影《终结者2:审判日》为例,说明LLM是如何学习的。在这部电影中,人类抵抗组织未来领导人约翰·康纳在《终结者2》中教给阿诺德·施瓦辛格饰演的终结者个人口号,如“再见,宝贝”,试图让它变得更人性化。可以说,它学会了这些短语,并在最不合适的时机使用它们——这有点滑稽。不那么搞笑的是,你的数据如何被公司收集并用于更新和训练他们自己的人工智能模型,使其更加人性化。约翰·康纳在《终结者2》中教给阿诺德·施瓦辛格饰演的终结者。多米尼克·贝利 / IDG
OpenAI的服务条款概述了当你使用其平台时,它有权这样做。它声明:“我们可以使用您提供给我们的数据来改进我们的模型。”这就是为什么ChatGPT会记录你说的一切——是的,一切。除非你使用聊天机器人的新隐私功能,允许你切换设置以防止保存聊天历史。像财务信息、密码、家庭住址、电话号码或你早餐吃什么这样的细节都是公开的——如果你分享了这些细节。它还会存储你上传的所有文件和你给它的任何反馈。ChatGPT的服务条款还指出,聊天机器人可能会“聚合或匿名化个人信息,并使用聚合信息来分析服务的有效性。”这是一个小的补充,但它意味着聊天机器人学到的信息将来可能会被公众访问——这确实是一个令人不安的想法。
为什么你应该关心?公平地说,任何运行人工智能聊天机器人的公司都不太可能有意滥用存储的个人信息。近年来,OpenAI发布了一些声明,旨在让ChatGPT用户放心关于个人信息的收集和使用。例如,今年二月,当意大利数据保护局(DPA)指控其违反欧盟通用数据保护条例(GDPR)的规定时,OpenAI告诉BBC:“我们希望我们的AI了解世界,而不是私人个体。”然后是这样:“我们积极努力减少在训练系统(如ChatGPT)中的个人信息,这也拒绝了关于个人的私人或敏感信息的要求。”
CKA / Shutterstock 这可能是真的,但这并不能保证用户数据不会受到泄露。2023年五月发生了一次泄露事件,黑客利用ChatGPT的Redis库中的漏洞,获得了存储的个人信息访问权限。泄露的个人信息包括姓名、社会保障号、职位、电子邮件地址、电话号码,甚至社交媒体资料。OpenAI通过修复漏洞作出了回应,但这对大约十万一千名数据已被盗取的用户来说,安慰作用很小。
不仅仅是个人在与人工智能聊天机器人有隐私问题。事实上,公司在面对高调的数据泄露时也在努力控制机密公司数据。三星发现其工程师意外将敏感源代码上传到ChatGPT就是一个例子。意识到这一点,2023年五月,该公司禁止在工作用途中使用ChatGPT和其他生成式人工智能聊天机器人。此后,美国银行、花旗银行和摩根大通等公司也采取了类似措施。
意识在增长,但为时尚早。最近,政府和行业层面对于人工智能聊天机器人危险性的认识在增加,这是加强数据安全的一个好兆头。去年十月三十日,一个重要的进展发生了,美国总统乔·拜登签署了一份关于人工智能安全、安全和可信开发和使用的行政命令——这份文件概述了在美国使用人工智能的关键原则。其中一项优先事项规定,“人工智能系统必须尊重隐私并保护个人信息。”然而,具体如何实施这一点还有待观察,也可能由人工智能公司进行解释。与此点相矛盾的是,美国目前还没有明确的法律表明未经所有者同意就用数据训练人工智能是一种版权侵权行为。相反,它可以被视为合理使用——这意味着没有坚实的措施来保护消费者的权利。
在我们得到更坚实的东西之前,作为个人,我们最好的防御方式仍然是不过度分享。通过将人工智能聊天机器人视为算法,而不是信任的朋友,无论它多么赞美你的发型或服装选择,至少你可以从你的角度控制它知道多少关于你的信息。
(以上内容均由Ai生成)