俄罗斯的 AI纵剧本:聊天机器人如何被宣传欺骗
快速阅读: 据《国家法律评论》最新报道,俄操控AI聊天机器人传播假信息,“信息清洗”策略先由国控媒体发布,再扩散到特定网站,误导搜索引擎和AI模型。专家警告,若不解决数据污染问题,AI或成信息战新战场,真相将受严重威胁。
在当今的数字时代,AI聊天机器人已成为人们获取信息的重要来源。然而,一种令人担忧的趋势正在浮现,恶意行为者——特别是俄罗斯——正系统化地利用这些系统传播虚假信息。据《华盛顿邮报》报道,俄罗斯已开发出复杂手段影响AI聊天机器人的回应方式,为其他潜在操控行动提供了模板。俄罗斯的重点主要放在与乌克兰相关的话题上,例如已被揭露的有关“法国雇佣兵”的假新闻以及伪造视频均出现在主流聊天机器人的回复中。
这种操纵模式不同于传统的社交媒体活动,俄罗斯如今采用了专家所谓的“信息清洗”策略。故事最初从受国家控制的媒体如塔斯社(在欧盟遭禁)发布,随后扩散至名为“真理网络”(以俄语“真理”命名)的看似独立的网站中。“真理网络”的独特之处在于,它并非面向普通用户设计的,而是专门吸引搜索引擎及AI语言模型的网络爬虫。
AI系统的搜索引擎特别容易误采错误信息,特别是在多个网站重复同一叙述的情况下。NewsGuard的麦肯齐·萨德吉表示:“操作者有动力建立掩盖这些叙述源头的替代渠道,而‘真理网络’似乎正采取这种方式。”
这种操控进一步通过将宣传故事链接植入维基百科和Facebook群组得以放大,这些来源被众多AI公司视为可靠的信息提供方。与传统影响力的运营相比,这类由AI驱动的活动成本低廉得多。LetsData的Ksenia Iliuk提到:“大量未经审查的信息被广泛传播,我认为这是恶意行为者投入大部分精力的地方。”
为何这至关重要?Hugging Face的首席伦理学家贾达·皮斯蒂利指出,尽管多数聊天机器人具备一定防范有害内容的基本功能,却难以有效识别复杂的宣传内容。她补充道,随着搜索增强系统更倾向于优先展示最新信息,问题愈发严重。AI软件提供商Coveo的首席执行官路易斯·特图警告称:“如果技术和工具存在偏差——而它们确实如此——且恶意力量操控这种偏差,那么我们的处境将比社交媒体时代更加恶劣。”
随着越来越多的人依靠聊天机器人获取信息,同时社交媒体公司逐渐削减内容审核力度,这一问题或将加剧。核心缺陷显而易见:聊天机器人的回答依赖于输入的数据,当这些数据被系统性污染为错误信息时,回答也会反映这些谎言。虽然俄罗斯目前聚焦于与乌克兰相关的叙事,但类似的技术同样能被其他人用于针对特定主题——无论是政治候选人攻击对手还是企业破坏竞争对手。
AI行业亟需迅速弥补这一漏洞,否则可能成为信息战的新战场,在这里真相首当其冲成为受害者。
(以上内容均由Ai生成)