Facebook 发现政策变更后暴力内容和骚扰有所增加
快速阅读: 据《小工具》称,Meta发布首份季度诚信报告,显示Facebook上暴力、欺凌等内容虽违规率降低,但暴力血腥及欺凌骚扰有所增加。报告还指出,主动内容审核减少导致下架内容总量下降,但错误率降低约一半。 Meta正测试用大型语言模型辅助审核,且终止了美国的事实核查合作,转向社区标注系统。
自马克·扎克伯格今年早些时候调整了公司的仇恨言论政策并改变了内容审核方式以来,Meta发布了首份季度诚信报告。根据报告,在Meta总体下架内容减少的情况下,Facebook上的暴力内容、欺凌和骚扰有所增加。这是Meta首次分享了扎克伯格的决策对数十亿用户平台造成影响的数据。
值得注意的是,该公司将这些变化视为一种胜利,称其错误率减少了大约一半,而违反规定的帖子整体流行程度“在大多数问题领域基本保持不变”。然而,有两个显著例外。从2024年底的0.06%-0.07%上升到2025年第一季度的0.09%,暴力和血腥内容有所增加。Meta将其归因于“违规内容分享的增加”以及自身试图“减少执法失误”。此外,Meta还注意到Facebook上的欺凌和骚扰现象有所增加,从2024年底的0.06%-0.07%上升到2025年初的0.07%-0.08%。Meta表示,这主要是由于3月份未具体说明的违规“高峰”。
(值得注意的是,这与公司重新改写仇恨言论政策后的类别不同,新政策允许针对移民和LGBTQ群体的帖子。)
这些百分比可能听起来很小,但对于每天收到数十亿帖子的Facebook平台来说,即使是小幅增长也可能引发明显的变化。Meta将其流行度指标描述为估计违反规定的帖子在其平台上的出现频率。
报告还强调了自Meta远离对所有政策的主动执行(仅保留最严重政策如儿童剥削和恐怖主义内容)以来,其下架内容总量大幅减少。例如,Meta的报告显示,Facebook上因仇恨内容被删除的帖子数量显著下降,仅有340万条内容在该政策下被处理,这是自2018年以来的最低数字。垃圾邮件移除量也从2024年底的7.3亿急剧下降到2025年初的3.66亿。Facebook上被删除的虚假账户数量也从14亿显著下降到10亿(Meta不提供Instagram上虚假账户删除的相关统计数据)。
与此同时,Meta声称其内容审核错误减少了大约一半,这是扎克伯格决定停止主动审核的主要理由之一。“从2024年第四季度到2025年第一季度,我们在美国平台上的执法错误减少了约50%。”公司在更新其一月份宣布政策变更的帖子时写道。Meta没有解释如何计算这个数字,但表示未来的报告将“包括关于我们的错误的指标,以便人们可以跟踪我们的进展。”
Meta承认,至少在一群用户中仍需进行部分主动审核:青少年。“同时,我们仍致力于确保平台上的青少年拥有尽可能安全的体验,”公司写道。“这就是为什么,对于青少年,我们还将继续主动隐藏其他类型的有害内容,如欺凌。”
Meta在过去几个月一直在推出“青少年账户”,这应该能让为年轻用户筛选内容变得更加容易。公司还提供了有关其如何使用大型语言模型来辅助内容审核工作的最新信息。“经过进一步测试,我们开始发现大型语言模型在某些政策领域表现出超越人类的能力。”Meta写道。“我们还在某些情况下使用大型语言模型从审查队列中移除内容,当我们高度确信其不违反我们的政策时。”
扎克伯格政策变更的另一个主要组成部分是Meta在美国终止事实核查合作伙伴关系。今年早些时候,该公司开始在Facebook、Instagram和Threads上推出自己的Community Notes版本,并已将其扩展到Reels和Threads回复。Meta未透露其新的众包事实核查方法的效果如何,也不清楚笔记在平台上的出现频率,但承诺在未来几个月内发布更新。
(以上内容均由Ai生成)