OpenAI 在私人对话泄露给谷歌搜索后删除了 ChatGPT 功能
快速阅读: 据《风险节拍》称,OpenAI暂停ChatGPT可搜索功能,因隐私泄露引发争议。用户对话意外被Google索引,暴露敏感信息。事件凸显AI公司平衡创新与隐私的挑战。企业需重视AI数据安全。
想要更智能的见解进入您的邮箱吗?订阅我们的每周新闻通讯,只获取对企业AI、数据和安全领导者至关重要的信息。立即订阅。
OpenAI周四罕见地改变了立场,突然停用了允许ChatGPT用户通过Google和其他搜索引擎让对话被发现的功能。这一决定发生在社交媒体广泛批评后的几个小时内,说明了隐私问题如何迅速破坏即使是善意的AI实验。这项功能被OpenAI描述为一个“短暂的实验”,要求用户主动选择加入,通过分享聊天并勾选一个选项来使其可搜索。然而,迅速的逆转在两者之间找到平衡,这凸显了AI公司面临的一个根本挑战:在共享知识的潜在好处与无意数据泄露的实际风险之间找到平衡。
如何数千条私人ChatGPT对话成为Google搜索结果?
当用户发现他们可以使用查询“site:chatgpt.com/share”在Google上搜索到数千条陌生人的对话时,引发了争议。这些结果展现了一个亲密的画面,展示了人们与人工智能互动的方式——从普通的浴室翻新建议到深刻的个人健康问题以及专业敏感的简历重写。(鉴于这些对话的私人性质,通常包含用户的姓名、地点和私人情况,VentureBeat未提供具体交流内容。)
OpenAI的安全团队在X上解释道:“最终我们认为这个功能为人们提供了过多意外分享他们不打算分享的机会。”承认防护措施不足以防止滥用。
AI影响系列重返旧金山 – 8月5日
AI的下一阶段已经到来——你准备好了吗?加入来自Block、GSK和SAP的领导者,独家了解自主代理如何重塑企业工作流程——从实时决策到全流程自动化。现在就预订席位 – 名额有限,先到先得:https://bit.ly/3GuuPLF
这次事件揭示了AI公司在用户体验设计方面的一个重要盲点。虽然存在技术保障——该功能是用户需主动选择的,并需要多次点击才能激活——但人类因素却出现了问题。用户要么没有完全理解让聊天可搜索的含义,要么只是在热衷于分享有用内容时忽略了隐私后果。一位安全专家在X上指出:“分享潜在私人信息的门槛应该比一个复选框更大,或者根本不存在。”
为什么Google Bard和Meta AI也经历了类似的数据泄露丑闻?
OpenAI的失误遵循了AI行业令人担忧的趋势。2023年9月,Google因Bard AI的对话开始出现在搜索结果中而遭到类似批评,促使该公司实施了阻止措施。当一些Meta AI用户无意中将私人聊天发到公共平台时,Meta也遇到了类似的问题,尽管他们已警告过隐私状态的变化。这些事件揭示了一个更广泛的挑战:AI公司正在迅速推动创新和产品差异化,有时以牺牲隐私保护为代价。推出新功能并保持竞争优势的压力可能会掩盖对潜在滥用场景的仔细考虑。
对于企业决策者来说,这种模式应引发值得重视的问题。如果面向消费者的人工智能产品在基本隐私控制上都存在问题,那么处理敏感企业数据的应用又会怎样?
这些事件揭示了一个更广泛的挑战:AI公司正在迅速推动创新和产品差异化,有时以牺牲隐私保护为代价。推出新功能并保持竞争优势的压力可能会掩盖对潜在滥用场景的仔细考虑。
企业需要了解的AI聊天机器人隐私风险
可搜索的ChatGPT争议对越来越多依赖AI助手进行战略规划和竞争分析的企业用户具有重要意义。虽然OpenAI表示企业账户和团队账户有不同隐私保护措施,但消费者产品的失误表明了了解AI供应商如何处理数据共享和存储的重要性。明智的企业应向其AI提供商明确询问数据治理问题。关键问题包括:在什么情况下对话可能被第三方访问?有哪些控制措施可以防止意外暴露?响应速度如何?
这次事件还展示了社交媒体时代隐私泄露快速扩散的特性。在最初发现后几小时内,这个故事就在X.com(前Twitter)、Reddit和主流科技出版物上传播开来,加剧了声誉损害并迫使OpenAI采取行动。
创新困境:在不损害用户隐私的前提下开发有用的AI功能
OpenAI对可搜索聊天功能的愿景本身并不有问题。发现有用的AI对话的能力确实有助于用户找到解决常见问题的方法,就像Stack Overflow已成为程序员的重要资源一样。从AI互动中建立可搜索的知识库的概念是有价值的。然而,执行过程中暴露出AI开发中的根本矛盾。公司希望利用用户互动产生的集体智慧,同时保护个人隐私。找到正确的平衡需要更复杂的方案。
一位在X上的用户表达了复杂性:“不要因为人们无法阅读而减少功能。默认设置是好的且安全的,你应该坚持自己的立场。”但其他人不同意,有人指出“ChatGPT的内容往往比银行账户更敏感。”
产品开发专家Jeffrey Emanuel在X上建议:“显然应该对此进行复盘,并在未来采取‘如果最愚蠢的20%的人群误解并滥用这个功能,后果会有多严重?’的方式进行规划。”
每个AI公司都应该实施的基本隐私控制
ChatGPT可搜索性的事件为AI公司及其企业客户提供了几个重要的教训。首先,默认隐私设置非常重要。可能暴露敏感信息的功能应需要明确的知情同意书,并清楚地警告潜在后果。其次,用户界面设计至关重要。即使技术上安全的复杂多步骤过程,也可能导致严重的用户错误。AI公司需要大力投资于使隐私控制既强大又直观。
第三,快速响应能力至关重要。OpenAI在数小时内能够及时应对,可能减轻了短期损失,但这次事件仍然引发了对其功能审查流程的质疑。
企业如何规避AI隐私失败
随着AI日益融入业务运营,类似这样的隐私事件可能会变得更加严重。当暴露的对话涉及公司战略、客户数据或专有信息而不是关于家居改善的个人查询时,风险会大幅上升。有远见的企业应将这次事件视为警示,加强其AI治理框架。这包括在部署新的AI工具之前进行彻底的隐私影响评估,制定明确的政策,规定哪些信息可以与AI系统共享,并建立详细的清单。
整个AI行业也必须从OpenAI的挫折中吸取教训。随着这些工具变得越来越强大和普遍,隐私保护中的容错范围继续缩小。那些从一开始就优先考虑细致的隐私设计的公司将很可能在竞争中获得显著优势,而那些将隐私视为事后的公司则可能落后。
人工智能中信任破裂的沉重代价
可搜索的ChatGPT事件说明了AI采用的一个基本真理:一旦信任被打破,重建起来非常困难。尽管OpenAI的快速反应可能减轻了短期损失,但这次事件提醒我们,隐私失败可能会迅速掩盖技术成就。对于一个建立在改变我们工作和生活方式承诺基础上的行业来说,维持用户信任不仅仅是一个加分项,而是生存的关键。
现在的问题是,AI行业是否会从这次最新的隐私警示中吸取教训,还是继续陷入类似的丑闻中。因为在打造最有帮助的AI的竞赛中,忘记保护用户的企业可能会发现自己孤军奋战。
每日商业用例见解,尽在VB Daily
如果您想给老板留下深刻印象,VB Daily为您准备好了。我们为您提供有关公司如何使用生成式AI的内部消息,从监管变化到实际部署,让您分享见解以实现最大的投资回报率。立即订阅。
阅读我们的隐私政策
感谢订阅。查看更多的VB新闻通讯.发生错误。
(以上内容均由Ai生成)