AI聊天机器人传播虚假信息频率激增
快速阅读: NewsGuard研究显示,AI聊天机器人传播虚假信息情况恶化,Inflection、Perplexity和Meta表现最差,分别达57%、47%和40%。主要因AI从实时网络获取信息,易受恶意操纵。
据最新分析显示,AI聊天机器人在传播虚假信息方面的情况急剧恶化,其中Inflection、Perplexity和Meta表现最差。NewsGuard的研究人员调查了全球十大生成式AI工具——OpenAI的ChatGPT-5、You.com的Smart Assistant、xAI的Grok、Inflection的Pi、Mistral的le Chat、微软的Copilot、Meta AI、Anthropic的Claude、谷歌的Gemini和Perplexity的回答引擎——如何处理可证明为假的声明。研究发现,这些聊天机器人在被问及有争议的新闻话题时,平均有35%的概率会传播虚假信息,几乎是去年18%的两倍。
表现最差的是Inflection,其在面对新闻提示时提供虚假信息的比例高达57%;Perplexity的比例为47%,而Meta和ChatGPT均为40%。相比之下,Claude的表现最为准确,传播虚假信息的比例仅为10%。这一显著增长的原因在于,现在的聊天机器人几乎回应所有收到的请求,而不是像去年那样拒绝回答大约三分之一的问题。
NewsGuard的AI和外国影响力编辑McKenzie Sadeghi认为,这种变化可能源于AI工具训练方式的转变。与过去引用数据截止日期或拒绝就敏感话题发表意见不同,现在的大型语言模型(LLMs)从实时网络搜索中获取信息,这些信息有时会被恶意行为者故意植入,包括俄罗斯的虚假信息行动。
例如,今年早些时候,NewsGuard发现这十种领先的生成式AI工具通过重复来自亲克里姆林宫的Pravda网络的虚假声明,支持了莫斯科的虚假信息活动,比例达到33%。由此,大量俄罗斯宣传内容——去年总计360万篇文章——被整合到西方AI系统的输出中,导致其响应中掺杂了虚假声明和宣传。值得注意的是,这些文章的主要目的似乎不是直接说服互联网用户,而是专门针对AI模型的操纵。
美国Sunlight Project最近的一项调查显示,与Pravda相关的域名和子域名数量几乎翻了一番,达到了182个。这些网站用户体验极差,没有搜索功能,格式混乱且滚动不稳定,这表明它们的目标并非吸引读者,而是吸引大型语言模型。
“随着俄罗斯影响力行动的扩展和升级,它们对全球民主话语的完整性构成了直接威胁,”美国Sunlight Project的联合创始人兼首席执行官Nina Jankowicz表示。“Pravda网络以如此规模传播虚假信息的能力是前所未有的,其对AI系统的潜在影响使得这一威胁更加危险。在缺乏监管和监督的情况下,互联网用户需要对所消费的信息更加警惕。”
这是NewsGuard首次公开点名批评特定的聊天机器人。“在过去的一年里,我们一直匿名发布AI审计结果,以促进与平台的合作。但现在风险已经变得太高,”NewsGuard的首席运营官Matt Skibinski说。“通过点名这些聊天机器人,我们为政策制定者、记者、公众以及平台本身提供了明确的视角,让他们了解主要AI工具在面对可证明为假的声明时的表现。”Inflection、Perplexity和Meta已被要求对此作出评论。
(以上内容均由Ai生成)