AI工程师警告:媒介素养不足以识别AI伪造内容
快速阅读: AI工程师迈克尔指出,AI生成内容泛滥,需在创作初期加入标签以维持公众信任,媒介素养不足抵御假信息,标签系统面临持久性和可信度挑战,建议开发者重视来源证明、对抗测试和文化适应性。
迈克尔·乌梅奥科利是一位人工智能(AI)和软件工程师,在本次采访中,他解释了为何单靠媒介素养不足以帮助人们识别AI生成的假信息。他还分享了关于模型开发者如何设计系统以使合成媒体可追溯的见解。以下是摘录:
AI生成的内容如今无处不在,从逼真的深度伪造演讲到AI编辑的图像。为什么给这类内容贴标签成为当务之急?
AI生成内容的速度和数量令人难以招架。几分钟内就能制作出一条有说服力的假消息,无论是政治视频、虚构的突发新闻报道,还是从未发生过的合成目击者叙述。一旦这些内容在社交媒体上流传开来,即使最快的事实核查者也无法消除最初的负面影响。如果我们要维持公众的信任,模型开发者需要在内容创作之初就设计出能够标记AI参与的系统。等到内容上网后再采取行动已经太迟。
有些人认为我们应该训练观众自行辨别假信息。您觉得媒介素养足够吗?
媒介素养固然重要,但它并非万能盾牌。人类倾向于信任锐利的视觉效果和自信的文字,尤其是当它们看起来来自我们熟悉的来源时。即使是专家也可能会被欺骗。这里有一个有趣的现象:标签不仅提供信息,还会影响人们的感知。研究显示,被标记为AI生成的内容往往分享得较少,但如果受众认为AI是客观的,有时反而会更加信任这些内容。因此,开发者不仅要考虑技术准确性,还要思考标签如何随着时间影响人类行为。
实施这些真实标记面临哪些困难?
主要存在两个挑战:持久性和可信度。持久性意味着标签在经过压缩、裁剪、截图甚至视频跳帧后仍能保留。可信度则指标签不易被伪造。更大的社会挑战在于,一个国家认为可信的标签可能在另一个国家被视为侵入性或带有偏见。为北美地区设计的系统可能未经适应就无法在东南亚或西非获得认可。开发者需要及早考虑到这些文化差异,否则可能会开发出无人使用的工具。
一旦这些系统到位,恶意行为者将如何应对?
他们会不断创新。如果您添加水印,他们就会开发工具来去除水印;如果您嵌入元数据,他们就会重新处理文件以清除元数据。一种可能的发展是标签模仿,即携带伪造验证标签的假信息,以此来获取可信度。因此,我们不能将标签视为一劳永逸的解决方案。技术防护措施必须成为不断更新的安全层的一部分,根据新出现的攻击模式快速迭代。
如果您今天要向一个生成式AI团队提供建议,您会告诉他们优先考虑什么?
相关新闻:
– 国家安全局要求X公司删除索沃针对总统蒂努布的推文
– 2027年:恩古州APC女性支持蒂努布,成立妇女分会
– 误入阿格贝索拉计划的ADC集会,不法分子在拉各斯为奥比和罗德斯-维沃助威
三个要点:双重来源证明。每个AI输出都应有一个用户可见的标签和一个机器可读的加密签名元数据标签。如果一层失效,另一层仍能表明其来源。
对抗测试。模拟您的系统可能遭受的攻击,如去除元数据、篡改水印和重新编码。在发布前修复弱点。
文化适应性。以允许不同地区或平台定制标签的方式构建核心技术,而不破坏验证链。在拉各斯有效的视觉标签可能在东京或圣保罗不起作用。
对于开发者而言,这是一项巨大的责任。如何在复杂性和普及率之间取得平衡?
从简单开始,但设计时考虑扩展。例如,您可以先在每张图片中嵌入强大的元数据,并提供公共验证API。之后,可以增加可见标签、区域定制和冗余。关键是让其他人容易采用,以便您的系统能够融入更广泛的全球网络。
您提到AI模型开发者需要改变方法。能否详细说明?
将来源证明视为安全性一样,作为核心功能而非附加项。记录您的方法,对其局限性保持透明,并随着威胁的演变而更新。
记住,仅靠技术无法解决虚假信息问题;还需要建立公众信任。一个好的标签系统不仅保护真相,还能使真相更容易被看到,无论它传播到世界的哪个角落。
随着合成媒体成为在线生活的一部分,对抗虚假信息的努力将越来越多地受到人工智能开发者设计选择的影响,而非政客或平台。那些以持久性、适应性和文化信任为基础进行构建的人,不仅能够保护其模型免遭滥用,还将有助于维护数字时代公共话语的完整性。
(以上内容均由Ai生成)