主流聊天机器人传播虚假信息风险加剧,研究显示情况堪忧
快速阅读: Newsguard研究显示,2023年8月十大AI工具传播虚假信息概率升至35%,主要因引入实时网络搜索功能。Inflection模型错误率最高达56.67%,Perplexity从100%下降至50%。
Newsguard 最近发布的一项研究表明,截至2023年8月,十大生成式 AI 工具在处理实时新闻时,传播虚假信息的概率高达35%,比去年同期的18%几乎翻了一番。研究认为,这一虚假信息传播率的显著上升与 AI 聊天机器人引入实时网络搜索功能有关。随着拒绝回答用户问题的比例从31%降至0%,AI 开始接入一个充满不实信息的网络生态系统,导致虚假信息的传播现象更加严重。
该研究还发现,许多不良行为者利用 AI 的特性故意散布虚假信息。去年,Newsguard 标记了966个以16种语言运营的 AI 生成新闻网站,这些网站通过模仿正规媒体的名称,如 “iBusiness Day”,向公众传播假消息。具体来说,Inflection 公司的 AI 模型传播虚假信息的概率最高,达到56.67%;Perplexity 模型的表现也不理想,出错率为46.67%。ChatGPT 和 Meta 的 AI 模型的错误率均为40%,而 Copilot(微软必应聊天)和 Mistral 的虚假信息传播率为36.67%。表现最佳的两款模型是 Claude 和 Gemini,错误率分别为10%和16.67%。
值得注意的是,Perplexity 的表现大幅下滑,去年8月该模型对虚假信息的揭穿率达到100%,而到今年8月,这一比例降至接近50%。引入网络搜索功能的初衷是为了解决 AI 回答内容过时的问题,但这却带来了新的挑战。这些聊天机器人开始从不可靠的来源获取信息,使用户在判断事实与假消息时更加困难。
Newsguard 指出,早期的 AI 通过拒绝回答问题来避免传播虚假信息的风险,但现在网络生态中虚假信息泛滥,辨别真伪变得更加复杂。OpenAI 也承认,当前的语言模型可能会产生“幻觉内容”,即虚假或无根据的信息。该公司表示正在研发新技术,旨在让未来的模型能够更好地提示不确定性,而非笃定地生成虚假信息。
(以上内容均由Ai生成)