AI深伪视频泛滥,如何辨别真伪?
快速阅读: OpenAI推出AI视频生成器Sora,视频逼真引发虚假信息传播担忧。Sora视频具高分辨率、同步音频,可通过“客串”功能使用他人形象生成视频。专家建议检查Sora水印和元数据以辨别真伪。
从深度伪造名人到虚假灾难广播,再到病毒式传播的兔子蹦床视频,AI生成的视频无处不在。ChatGPT母公司OpenAI推出的AI视频生成器Sora,使得真假难辨的局面更加复杂。Sora 2这一全新的社交媒体应用程序,正变得日益精妙。
近几个月来,这款类似TikTok的应用迅速走红,AI爱好者们纷纷寻找邀请码以体验其功能。然而,Sora与其他社交平台不同,其上所有内容均为虚构,所有视频均由AI生成。我将其描述为一种“AI深度伪造的梦幻景象”,初看无害,实则暗藏危险。
不要错过我们公正的技术内容和实验室评测。将CNET设为首选谷歌来源。
从技术角度看,Sora的视频相较于竞争对手如Midjourney的V1和Google的Veo 3,表现得更为出色。它们具有高分辨率、同步音频和令人惊讶的创造力。Sora最受欢迎的功能之一被称为“客串”,允许用户使用他人的形象并将其插入几乎任何AI生成的场景中,从而创造出令人毛骨悚然的真实视频。
这正是许多专家对Sora感到担忧的原因。该应用让任何人都能轻松创建危险的深度伪造视频,传播虚假信息,模糊现实与虚构之间的界限。公众人物和名人尤其容易受到这些深度伪造的影响,因此像SAG-AFTRA这样的工会正敦促OpenAI加强其防护措施。
识别AI内容对于科技公司、社交媒体平台乃至每个人来说都是一个持续的挑战。但并非毫无希望。以下是一些辨别视频是否由Sora制作的方法。
寻找Sora水印
在Sora iOS应用上制作的每段视频下载时都会带有水印。这是一个白色Sora标志——云图标——在视频边缘跳跃。这种方式类似于TikTok视频的水印。
为AI内容添加水印是帮助人们识别AI生成内容的主要手段之一。例如,Google的Gemini“纳米香蕉”模型会自动为其图像添加水印。水印的好处在于,它清楚地表明内容是由AI辅助生成的。
然而,水印并非完美无缺。如果水印是静态的(不移动),则很容易被裁剪掉。即使是Sora这样带有动态水印的视频,也有专门设计用于去除水印的应用程序,因此单靠水印不能完全信任。当OpenAI首席执行官Sam Altman被问及此问题时,他表示社会将不得不适应一个任何人都可以制造他人假视频的世界。当然,在OpenAI推出Sora之前,还没有一种流行、易用且无需技能即可制作此类视频的方式。但他的论点确实指出了需要依赖其他方法来验证真实性的必要性。
检查元数据
我知道,你可能认为检查视频元数据以确定其真实性太麻烦了。我理解你的想法,这确实是一个额外的步骤,而且你可能不知道从何开始。但这是确定视频是否由Sora制作的好方法,而且比你想象的要简单得多。
元数据是在内容创建时自动附加的一组信息。它提供了更多关于图片或视频是如何创建的信息,包括拍摄照片所用的相机类型、视频录制的位置、日期和时间以及文件名。无论是人类还是AI创建的照片和视频,都有元数据。很多AI生成的内容还会带有表明其AI来源的内容凭证。
OpenAI是内容出处和真实性联盟的一部分,这意味着Sora视频包含C2PA元数据。你可以使用内容真实性倡议的验证工具来检查视频、图片或文档的元数据。以下是具体操作步骤。(内容真实性倡议是C2PA的一部分。)
如何检查照片、视频或文档的元数据:
1. 访问此网址:https://verify.contentauthenticity.org/
2. 上传你想检查的文件。
3. 点击打开。
4. 查看右侧面板中的信息。如果是AI生成的内容,应在内容摘要部分标明。
当你通过此工具检查Sora视频时,它会显示该视频“由OpenAI发布”,并注明其为AI生成。所有Sora视频都应包含这些凭证,以便确认其为Sora创建。
这款工具,如同所有的人工智能检测器一样,并非完美无缺。人工智能视频有许多方法可以避开检测。如果你有其他非Sora制作的视频,它们可能不包含元数据中的必要信号,导致该工具无法确定这些视频是否由人工智能创建。例如,通过Midjourney制作的人工智能视频就不会被标记出来,这一点我已经在我的测试中得到了证实。即使视频是由Sora创建的,但如果经过第三方应用程序(如去除水印的应用)处理后再下载,这也会降低该工具将其标记为人工智能的可能性。
内容真实性倡议的验证工具正确地识别出我使用Sora制作的视频是人工智能生成的,并显示了创建的具体日期和时间。截图来自Katelyn Chedraoui/CNET
寻找其他人工智能标签并自行标注
如果你在使用Meta的社交媒体平台,如Instagram或Facebook,可能会得到一些帮助来判断某内容是否由人工智能生成。Meta内部有系统可以帮助标记人工智能内容并标注为相应类别。虽然这些系统并不完美,但你可以清楚地看到被标记帖子上的标签。TikTok和YouTube也有类似的政策来标注人工智能内容。
唯一真正可靠的方法来确认某内容是否由人工智能生成,就是创造者自己披露这一信息。许多社交媒体平台现在提供了设置选项,允许用户将他们的帖子标注为人工智能生成。即使是在描述中简单提及或披露,也能大大帮助人们了解内容的创作方式。
当你浏览Sora时,你知道一切都是虚拟的。但一旦离开应用程序分享人工智能生成的视频,就有责任公开视频的创作方式。随着像Sora这样的AI模型不断模糊现实与虚拟之间的界限,我们需要共同努力,尽可能明确地表明某内容是真实的还是由AI生成的。
最重要的是保持警惕
没有一种万无一失的方法可以通过单一看图就能准确判断视频是否真实或由AI生成。防止被骗的最佳做法是不要不假思索地相信在网上看到的一切。遵循直觉——如果某事物看起来不真实,那很可能确实如此。在这个前所未有的、充满AI生成内容的时代,最好的防御措施是更仔细地检查观看的视频。不要只是匆匆一瞥就滑过,要检查文字是否有误、物体是否消失以及动作是否违背物理定律。偶尔被欺骗也不要自责;即使是专家也有可能出错。
(披露:CNET的母公司Ziff Davis于四月份对OpenAI提起诉讼,指控其在训练和运营人工智能系统时侵犯了Ziff Davis的版权。)
(以上内容均由Ai生成)