通过协作打击 AI 驱动的虚假信息
快速阅读: 据《国际金融博览会》称,Comprova项目通过协作新闻业对抗虚假信息,使用人工智能辅助核查,强调共享新闻的力量。该项目整合多方资源,优化工作流程,同时关注记者安全,推动文化变革。
IFEX与Comprova项目的负责人塞尔吉奥·吕德克进行了交谈,以便更好地理解人工智能如何重塑巴西的虚假信息威胁,以及协作新闻业可能是我们最有力的防御手段。
虚假信息已经成为当今专制工具箱中的核心武器,不仅用于误导,还用于破坏和动摇公众对事实的信任。记者和公益性媒体常常成为目标,因为政治行为者策划叙事以侵蚀公众对事实的信任并加剧两极分化。这些努力通过大型科技平台被放大数倍,将有害内容转化为病毒式噪音。在巴西,应对这一挑战最具雄心的回应之一是Comprova项目——一项联合超过40家媒体机构和公民社会组织的协作新闻业倡议,旨在识别、验证并揭穿从选举到公共卫生和气候等各个领域的虚假信息。该项目由IFEX成员阿布拉吉主办,在抵制巴西公共话语被操控和促进获取准确可靠的信息方面发挥着关键作用。我们与Comprova的负责人塞尔吉奥·吕德克进行了交谈,以更好地了解人工智能如何重塑虚假信息威胁,以及协作新闻业可能是我们最有力的防御手段。
是的,人工智能正在改变游戏规则,但并非完全如预期那样。当巴西为2024年市级选举做准备时,记者、研究人员和公民社会担心会有一波人工智能生成的虚假信息。深度伪造的威胁尤为严重——看起来真实的候选人的视频说他们从未说过的话,不存在的图像。然而,现实可能更为隐秘,吕德克解释道。这主要是因为恶意行为者倾向于回收旧故事——关于投票欺诈、政治对手、引发情绪的谣言——这表明人工智能可能更多地用于加速内容传播,而非创造内容。尽管如此,人工智能生成的深度伪造确实出现了,并且当它们出现时,主要被用作针对女性候选人的武器,通常是性化的图像或深度裸露图像的形式。这些攻击凸显了虚假信息运动与基于性别的暴力之间的交集,利用社会偏见并助长政治排斥。
新闻业重新布线:整合人工智能工具、策略和保护协议
随着虚假信息的发展,对抗它的新闻业也在发展。Comprova团队不仅仅是核实错误信息,他们重新设计了新闻编辑室本身,将人工智能工具作为助手,而非权威。与其依赖单一模型,该联盟使用了一系列可访问的技术——ChatGPT、Gemini、Perplexity、Copilot——来帮助综合、分类和监控信息。这些工具并不会取代人工验证,而是作为过程中的副驾驶——强大的副驾驶。这些记者还开发了一个共享提示库,优化他们与人工智能的互动以加快工作流程,同时保持严格的标准。“我们正在使用人工智能来支持监测和验证,”吕德克说道。“但我们始终保留人工监督。目标不是取代判断——而是提高精确度。”
视觉虚假信息是另一个挑战。当带有虚假主张的图片在网上疯传时,团队结合谷歌地球和地图与人工智能分析位置数据和上下文线索。而且除了辟谣,他们已经开始使用人工智能创建预防性内容——信息图表和快速响应消息——在有害叙述传播之前中断它们。人工智能也在重塑标题的撰写方式。传统的事实核查通常从陈述错误开始,然后纠正它。但最近的研究显示这种方法可能会适得其反。“大脑需要首先看到真相,”吕德克说。现在,Comprova的文章结构是先让读者锚定在事实之上,然后再引入错误主张。
然而,人工智能只是方程式的一部分。在巴西动荡的信息生态系统中,种族主义和性别歧视嵌入了虚假信息的传播方式——以及谁会被针对。Comprova为其记者制定了内部保护协议,尤其是黑人女记者,她们在联系虚假信息传播者时面临更高的骚扰风险。这种全面的方法展示了Comprova如何重新发明新闻实践以适应人工智能时代。
合作作为一种策略:目的优先于功劳
Comprova模式的核心是一个激进的想法:分享的新闻更强大。自2018年启动以来,该倡议已经聚集了巴西超过40家媒体机构和公民社会组织,它们不是通过竞争,而是通过共同致力于公共利益而团结在一起。“没有人签署报道。也没有人单独获得功劳,”吕德克说。“这改变了所有一切。我们不争夺可见度——我们合作以产生影响。”Comprova发布的每一篇事实核查文章都是集体编辑过程的结果,涉及来自不同组织的10到12名记者。决策通过共识做出,目标不是抢新闻,而是共同努力做到正确。这种协作结构不仅提高了准确性,还增强了韧性。在一个新闻自由受到压力且人工智能驱动的工具迅速传播虚假信息的环境中,共享工作意味着共享保护。它允许风险、情感负担和资源的分担。“当你开始信任他人与你一起工作时,文化的转变就发生了,”吕德克反思道。“一旦人们体验到了这一点,他们就不想回到过去。”
(以上内容均由Ai生成)