在井中投毒和其他生成式 AI 风险
快速阅读: 据《新堆栈》称,生成式AI带来的风险:YouTube视频被抄袭,原创作者受损。为应对“井水污染”,创作者尝试“毒化”字幕。小型平台需严格管控公共数据,避免信任危机。加强内容监管,减少匿名交流,保护数字身份。
**科技文化污染:井水与生成式AI的风险**
2025年3月15日 上午5:00
作者:大卫·伊斯特曼
图片提供:Frans van Heerden via Pexels
近期,一群因非法生成的人工智能而受影响的人是YouTube视频创作者。许多YouTube视频——特别是那些信息类或新闻类视频——正被其他方复制。一种常见的方式是复制目标视频的字幕。这样,人工智能生成的版本可能看起来不同,但实际上基于相同的内容。复制过程尽可能快速且自动化,并在未标明真实作者的情况下发布。有时,这些视频甚至被归类为原始视频的“摘要”,这依然处于法律和伦理的灰色地带。
这种生态系统不仅减少了原创作者的点击量,还破坏了他们的发现算法,使他们变得更穷。一个有趣的对抗方法是在字幕中加入无意义的文字来“毒化”这些字幕。实验结果显示,某些字幕格式允许编辑将字幕放置在屏幕外区域,这样观众看不到这些文字,但字幕复制者会摄入这些内容。通过使用多种封闭字幕格式转换,YouTube用户可以在自己的字幕中添加这些毒化字幕。这样一来,复制的视频就会说出荒谬的话语——通常是出现在视频中间以逃避即时检测。采用这种方式制作毒化视频的YouTube用户不太可能被复制,因为清理这些内容所需的额外工作会让复制者的整个工作流程变得效率低下。这与把自行车锁在更昂贵的自行车旁边或锁具较弱的自行车旁边没什么不同——它利用了攻击者的普遍懒惰心理。出于这个原因,“毒化井水”的概念已在创意领域流行起来,每个人都试图保护自己免受人工智能掠夺的影响。但这篇文章关注的是井水的所有者。
把井看作是你平台的所有公共数据,即你或你的组织分享给公众的一切:文字、文件、对话、API、视觉效果等。保持水质清澈代表公众对你组织的信任。从长远来看,希望你的自行车对邻居来说不那么吸引并不是一个长期的防御解决方案,但“毒化”已经成为所有公共平台的重大问题——这里有一个重要的教训。滥用公共数据,从而损害公共身份,可以迅速削弱平台及其所有者的可信度和功能性。
虽然复制和总结并不新鲜——我可以指出本文所在出版物中的文章被其他模糊的在线出版物或平台使用,可能没有得到许可。新的是人工智能驱动的生态系统管道,它威胁的不仅仅是单个创作者的一个创意输出,而是可以迅速吞噬内容和身份。数字身份如此脆弱的原因是因为没有实体可以依靠。制造实物的公司至少可以让他们的产品承担一部分身份负担。例如,1987年4月1日愚人节当天,宝马汽车公司在取笑人们不注意细节的同时巩固了自己的身份。因为他们的产品确实摆在人们面前的路上,所以在玩笑中诱导的身份混淆并不危险:你驾驶的是一辆真正的宝马吗?(愚人节——1987年)
许多人被这个骗局所骗,并打电话给宝马报告说他们的真车是假的。如今,公司标志的副本经常被用于网络钓鱼攻击。许多初创公司没有强大的视觉品牌标识,这使得伪造变得更加容易。或者他们没有令人难忘的域名,使用户更难检测到犯罪行为。独特的身份总是更安全的。如果你在世界上没有任何实体存在,那么你最不想做的就是稀释你的人类存在。人类可能是你的平台唯一非数字化的东西。
然而,一些小公司却使用聊天机器人。这是愚蠢的,因为它意味着他们大量的公共互动(是的,这是公共数据)并非由他们自己生产。一切都是建立在信任之上的。解决这个问题的部分方法是理解你的平台的公共数据和身份是如何交织在一起的。平台暴露的几乎一切都是信任链的一部分。每次你外包某些东西——尤其是外包给其他人训练的人工智能系统时——你可能会削弱这些链接。这就是为什么初创公司应该严格控制他们的所有数据。
作为一个平台,YouTube不在乎它的150亿个视频中有几百个是无意义的,但一个小平台无法承受这种对信任的冒犯。我们可能会嘲笑公司的使命宣言,但完全平淡无奇、我们知道是由人工智能生成的声明(或者可能是周五下午短暂会议的结果)只会减少坚实基础的感觉。身份——甚至是使命宣言——是任何平台信任的根基。
在撰写文件时,避免发布冗长的声明。小型相互关联的文档更容易控制,也更容易确定出处。把你所有的沟通都看作是树上的叶子和树枝;是更大整体的一部分。我们已经习惯了某些著名首席执行官的怪异行为,但他们有更大的井来吸收他们的污染。
**疾病传播者**
大型社交媒体网站越来越多地引起在线安全方面的担忧。像TikTok这样的平台最近与青少年自杀有关联。这些平台承载着公开生成的数据,而平台本身试图对此不负责任。经过检查,平台内部可能已经根植了一个他们无法真正控制的系统。然而,在较小规模上,这种形式的疾病传播对运行论坛的小型平台同样危险。许多公司不得不关闭或暂停论坛,因为愤怒的用户(组织或非组织的)可能会声誉毁坏。不正确管理论坛可能会因为疏忽而使原本无害的问题显得更糟。
成功的论坛(通常在Slack或Discord上)由几乎所有的开发人员维护,他们尽可能快地响应问题。你可以看到我们最初的例子——被毒化的YouTube字幕——可以被视为一种疾病传播的形式,因为一种字幕格式允许实际上隐藏的文本。这可能看起来像是灵活性,但示例显示了为什么这对平台来说可能是潜在危险的。我曾见过类似的情况,一家帮助商店销售剩余食品的应用程序列出了一家不是商店的企业。这家位于安静街道上的郊区住宅,远离主干道,建议晚上晚些时候取货时间——显然是有风险的。当应用程序被联系时,他们没有处理这种情况的流程。无论平台设计得多么完善,表面上健康的部分也可能受到感染。
**减少自由表达可以减少风险生成的数据**
大多数带有聊天频道的实时游戏网站都会仔细删除脏话,但有些网站根本不支持用户之间的任何口头交流——或者高度匿名化。在论坛发布前应用编辑层是重新获得控制的一种方式。
**做一个小心的井管理者**
恶意人士在食品或其他形式的掺假中下毒有自己的历史。食品生产商通过各种容器安全系统来反击这些攻击,以帮助发现它们是否已经被打开。但最好的防御方法是明确表示产品只使用少量精心挑选的原料,并且任何包装厂都直接由公司控制。同样,软件平台应该严格控制其公共数据,并避免第三方或人工智能生成,直到它们变得更加成熟。
人工智能生成的一个问题是该领域正在增长,没有人能预测接下来可能出现哪些可能令人不安的能力。与其等待问题出现,不如小心控制你所有的公共数据和流程。尽量保持原汁原味。观察它们的去向,以及它们可能如何被改变。
**热门故事**
YOUTUBE.COM/THENEWSTACK
技术发展迅速,不要错过任何一集。订阅我们的YouTube频道,以流媒体播放我们所有的播客、访谈、演示等内容。
**订阅组创建于草图**
大卫曾在伦敦担任甲骨文公司和英国电信的专业软件开发人员,并作为顾问帮助团队以更敏捷的方式工作。他写过一本关于UI设计的书,并一直在撰写技术文章……了解更多来自大卫·伊斯特曼的信息。
分享这个故事
热门故事
分享这个故事
(以上内容均由Ai生成)