WeTransfer 的服务条款回溯告诉我们关于 AI 的什么
快速阅读: 据《雅虎英国和爱尔兰》最新报道,多家科技公司因AI条款模糊引发争议,被迫修改。用户担忧作品被用于训练AI,行业面临信任危机。法律灰色地带显现,透明与明确同意成关键。
据媒体报道,近日,Dropbox、Zoom和Adobe等科技公司因涉及人工智能服务的条款引发争议。这些公司的条款中模糊的措辞引起了强烈抗议,随后不得不进行修改。
具体来看,Dropbox的一个隐藏设置暗示用户可以选择加入“第三方人工智能服务”。Zoom也因一段措辞,似乎赋予其使用视频、音频和聊天数据来开发人工智能的权利,遭到批评。直至该公司补充说明:“Zoom不会在未经同意的情况下使用客户内容来训练人工智能模型。”而Adobe则面临插画师和设计师社区的不满,他们认为公司条款赋予了对其创作的无限制访问权。Adobe高管紧急澄清,Firefly生成模型仅使用了Adobe Stock和公共领域的内容进行训练。
这些案例揭示了一个共同点:模糊的条款引发了强烈的抗议,公司不得不事后修改。然而,在法律上,这些条款可能具有可辩护性。但在被开发者西蒙·威尔逊称为“人工智能信任危机”的行业中,这显然不够。
创意产业尤其敏感。对于艺术家、作家和独立创作者来说,他们的收入依赖于作品的原创性。因此,他们认为自己的作品可能被用于开发复制或削弱其作品的工具,感到愤怒且个人化。英国编剧协会对此表示支持WeTransfer的让步,并强调:“成员的作品绝不能在未经允许的情况下用于训练人工智能系统。”
从法律角度看,服务条款正不断演进以适应新技术。公司通常会包含广泛的授权条款,以确保应对运营需求。但人工智能增加了复杂性。未来,法院可能需要判断这些条款是否包括人工智能训练,以及用户是否真正理解了他们同意的内容。
结果是,一个法律灰色地带出现了。公司对数据的处理方式与用户认为自己已同意的内容之间存在不匹配的风险,这可能导致法律挑战和声誉损害。
行业反思指出,模糊性的成本正在上升。在AI影响日益显著的环境下,公司不能再依赖“行业标准”的法律术语来逃避责任。WeTransfer表示将努力重新赢得信任,并删除了所有与人工智能相关的表述,将内容的使用限制为“运营、开发和改进服务”。
对于科技公司而言,若希望访问用户数据,不仅需要明确的同意,还需透明度,而非默认的假设。
(以上内容均由Ai生成)