WeTransfer 的服务条款回溯告诉我们关于 AI、数据和数字信任的内容
快速阅读: 《城市 AM》消息,荷兰平台WeTransfer因条款引发争议,用户担忧数据被用于AI训练。公司随后修改条款,承诺不使用客户内容训练AI。事件反映公众对科技公司数据使用的不信任。
据多家媒体报道,本周早些时候,荷兰文件共享平台WeTransfer因一项关于用户数据使用的条款引发争议,凸显了公众对科技公司处理用户数据用于人工智能的不信任。WeTransfer在其“服务条款”中增加了一条暗示用户文件可能被用于“改进机器学习模型”的条款,引起全球用户的担忧,尤其是创意人士。
艺术家、作家、电影制作人和记者在社交媒体上表达了对知识产权被滥用的担忧。WeTransfer迅速回应,在周二前修订了相关条款,并删除了与机器学习相关的表述。公司在声明中表示:“我们不使用客户内容来训练AI,也从未这样做过,未来也不会出售或分享用户数据。”
尽管WeTransfer坚称实际操作并未改变,但此次事件反映了用户与科技公司之间日益增长的信任缺口。WeTransfer的案例并非孤立,其他科技公司如Zoom、Adobe、Slack和Dropbox也曾因类似条款引发争议,被迫澄清或修改服务条款。
Zoom因一段似乎赋予其使用视频、音频和聊天数据开发AI权限的条款受到批评,最终添加了声明:“Zoom在未获得同意的情况下不会使用客户内容来训练AI模型。”Adobe则因AI语言引发插画师和设计师的抗议,公司高管紧急安抚,表示其生成模型仅使用Adobe Stock和公共领域的内容进行训练。
这些事件揭示了一个模式:模糊的措辞引发强烈反弹,随后进行修正。尽管法律条款在技术上可以辩护,但在当前被称为“AI信任危机”的行业中,这似乎已不足以平息用户的担忧。
对于依赖原创作品收入的艺术家、作家和独立创作者而言,他们的作品可能被用于培养复制或取代他们的工具的想法既令人愤怒又非常个人化。英国编剧协会对此表示欢迎,并强调会员作品不应在未经许可的情况下被用于训练AI系统。
从法律角度来看,服务条款正在适应新的技术能力。律师Neil Brown指出,公司通常会包含广泛的许可语言,以确保覆盖运营必需品,但AI增加了复杂性。当条款暗示使用内容“开发新技术”时,未来法院可能会被问及这是否包括AI训练,以及用户在点击复选框时是否真正理解了他们同意的内容。
WeTransfer表示,将努力重新赢得信任,并将内容使用限制为“运营、开发和改进服务”,符合其隐私和Cookie政策。然而,缺乏透明度仍可能导致怀疑,科技公司需要的不仅是模板化的条款和事后FAQ,而是明确的同意。
(以上内容均由Ai生成)