这就是为什么您不应该相信来自 AI 聊天机器人的新闻摘要(尤其是一个)
快速阅读: 《MakeUseOf 的》消息,BBC的一项新研究报告显示,流行的聊天机器人在生成新闻摘要时存在严重缺陷,超过50%的摘要包含错误。谷歌Gemini的错误率最高(60%),其次是微软Copilot(50%)和ChatGPT、Perplexity AI(约40%)。BBC建议,在获取新闻信息时,避免依赖AI摘要,直接阅读原文更为可靠。
一项来自BBC的新研究报告显示,流行的聊天机器人在生成新闻摘要时存在严重缺陷。谷歌Gemini的摘要问题率最高,测试涵盖了ChatGPT、谷歌Gemini、微软Copilot和Perplexity AI。
首先,BBC要求每个聊天机器人回答关于新闻的100个问题,并尽可能使用BBC新闻来源。随后,BBC专家评估了这些摘要的质量。其中,51%的摘要存在某种错误,无论是事实性错误、误引还是过时信息。其中,19%的摘要包含事实性错误,如日期错误。13%的摘要中引用的BBC引语要么被改动,要么在提供给聊天机器人的文章中并不存在。
按聊天机器人分类,谷歌的Gemini表现最差,超过60%的摘要包含有问题的信息。微软Copilot紧随其后,为50%,而ChatGPT和Perplexity的有问题响应约为40%。
在研究结论中,BBC表示,许多问题不仅仅是错误信息:由于技术可靠性的问题,我从未尝试用AI聊天机器人来总结新闻。但研究结果仍然令人惊讶,这表明有如此多的问题结果。AI要想成为可靠的新闻信息来源,还有很长的路要走。
AI功能仍处于发展阶段。AI技术,尤其是聊天机器人,正在迅速进步。但正如BBC的研究显示,期待从新闻中获得正确信息是一个极具挑战的领域。BBC强烈批评了另一个AI功能:苹果Intelligence的通知摘要。2024年12月,该平台的一个通知摘要错误地声称Luigi Mangione开枪自杀。他被指控是医疗保健CEO Brian Thompson的枪手。针对BBC和其他投诉,苹果暂时停用了新闻和娱乐应用的通知摘要功能,从iOS 18.3开始。
因此,当你想了解新闻时,保持简单:跳过AI摘要,自己去阅读原文吧。
(以上内容均由Ai生成)