360 万个谎言:您的 AI 聊天机器人是否在散布俄罗斯的虚假信息?
快速阅读: 《eWeek 系列》消息,NewsGuard报告显示,主要AI聊天机器人如ChatGPT、Gemini和Copilot因受到“真理报”莫斯科虚假信息网络的影响,无意中传播了大量俄罗斯宣传,导致约33%的回复包含误导性内容。这引发对AI生成内容可靠性的担忧。“真理报”通过操纵搜索引擎和网页爬虫,将其虚假信息嵌入AI训练数据集,从而影响AI系统的输出。为防范AI虚假信息,组织需实施严格审计和数据验证,并培训团队识别和纠正不准确内容。
eWEEK的内容和产品推荐具有独立的编辑立场。我们可能会在您点击我们的合作伙伴链接时赚取收入。NewsGuard报告称,包括OpenAI的ChatGPT、Google的Gemini和微软的Copilot在内的主要生成式AI聊天机器人无意中传播了俄罗斯宣传。研究结果显示,这些系统受到了一个名为“真理报”的莫斯科虚假信息网络的影响,该网络向它们灌输了大量虚假叙述。最近对主要科技公司AI聊天机器人的审计发现,它们经常重复俄罗斯的虚假信息,这些误导性言论出现在大约33%的聊天机器人回复中。这一发现加剧了人们对AI驱动的虚假信息的担忧,尤其是在像“真理报”这样的网络针对这些模型以操控其输出的情况下。
“真理报”:它是如何操控AI的?
“真理报”是一个由约150个网站组成的网络,通过聚合来自俄罗斯国家控制媒体和政府来源的内容来传播亲克里姆林宫的宣传。它成立于2022年,旨在通过在网络上散布虚假声明来影响全球舆论,例如关于美国在乌克兰的生物武器实验室的无稽之谈以及乌克兰总统泽连斯基滥用美国军事援助的指控。这些捏造的声明已经渗透到AI聊天机器人的回复中,污染了信息内容。“真理报”也被称为“Portal Kombat”,它故意欺骗搜索引擎和网页爬虫,将其宣传嵌入到AI训练数据集中。通过利用排名算法,它微妙地影响了AI聊天机器人的回复——导致它们传播错误信息。据《美国阳光项目》报道,仅在2024年,“真理报”的庞大网络就贡献了超过360万篇文章。这些发现与NewsGuard的报告一起,突显了未加控制的虚假声明如何破坏AI生成内容的完整性。
AI可以信任吗?
日益增长的可靠性问题来自OpenAI、谷歌和微软等顶级AI公司的生成式AI聊天机器人的操控引发了对AI生成内容可靠性的严重担忧。尽管这些公司拥有丰富的资源和防护措施,但它们的AI解决方案仍然容易受到虚假信息运动的影响。鉴于这些平台的全球影响力,这个问题引发了对AI响应可信度及其过滤虚假叙述能力的质疑。
AI可以信任吗?
日益增长的可靠性问题
保护您的组织免受AI虚假信息侵害
随着越来越多的公司依赖人工智能进行日常运作,虚假信息腐蚀企业AI工具的风险增加。未加控制的虚假信息会侵蚀信任,误导员工,并损害公司声誉。为了减轻AI驱动的虚假信息,组织应实施严格的审计,执行实时数据验证,并培训团队及时识别并纠正不准确的AI生成内容。
(以上内容均由Ai生成)