马斯克的 Grok3 ‘94% 不准确’:这就是其他 AI 聊天机器人如何违背事实
快速阅读: 《eWeek 系列》消息,研究显示,AI搜索引擎在引用新闻时表现不佳,超六成回答有误。部分AI如Perplexity错误率37%,而Grok高达94%。AI常伪造链接或剽窃内容,损害信誉并可能传播错误信息。此外,AI处理受限内容时一致性差且过度自信。因此,人类监督和批判性思维至关重要。
哥伦比亚大学新闻学院数字新闻研究中心的一项重要研究揭示了由人工智能驱动的搜索引擎存在一个重大缺陷:它们在准确引用新闻方面表现极差。研究团队分析了八个AI搜索平台,结果发现超过六成的回答包含错误或误导性的引用。
部分AI聊天机器人表现优于其他机器人——Perplexity的错误率为37%,但埃隆·马斯克旗下的Grok 3表现最差,在94%的情况下生成了不正确的引用。AI的引用混乱
许多像ChatGPT和Grok这样的AI搜索引擎和聊天机器人会引用BBC、《纽约时报》或路透社等传统新闻来源,以提升可信度。其逻辑在于,如果聊天机器人链接到一个可靠的出版物,用户更可能相信其回答。然而,研究表明,许多这些引用实际上并未链接到原始内容,而是伪造链接、引用聚合内容、剽窃作品,或将文章错误地归因于其他出版商。当这些引用不准确时,聊天机器人和出版商的声誉都会受损。更糟糕的是,那些不核实来源的用户可能无意间传播了错误信息,从而进一步巩固了聊天机器人的不准确性。
AI聊天机器人与受限内容的访问
除了引用问题,该研究还揭示了AI聊天机器人处理受限内容时令人担忧的一致性问题。包括ChatGPT和Perplexity在内的某些聊天机器人要么未能回答来自明确允许爬虫访问的出版商的问题,要么成功回答了关于它们本不应能够访问的内容的问题。Perplexity Pro正确识别了近三分之一的应被禁止的90段文章摘录。AI聊天机器人与受限内容的访问
一个特别令人不安的发现是,尽管《国家地理》明确禁止Perplexity的爬虫,但Perplexity的免费版本正确回答了所有10个与付费墙后的《国家地理》文章相关的查询。虽然AI模型有时可以从公开可用的参考中推断信息,但这一发现引发了人们对Perplexity是否尊重出版商限制的担忧。《报业协会》报道说,1月份Perplexity引用了《纽约时报》的内容146,000次,尽管出版商阻止了其爬虫。与此同时,尽管ChatGPT与其他聊天机器人相比对受限内容的回答较少,但它仍倾向于给出错误信息而非直接拒绝回答。
人工智能过度自信的问题
人工智能的一大缺陷在于它过于自信。AI搜索引擎往往不愿承认自己不知,而是常以看似权威实则错误的答案填补空白。这种“幻觉”效应让辨别错误信息变得困难,尤其是当用户对该主题不熟悉时。
为什么人类监督比以往任何时候都更重要
由于AI搜索引擎在准确性方面仍然存在问题,人类的判断依然不可或缺。事实核查、交叉引用来源并运用批判性思维都是区分事实与虚构所必需的。在AI平台大幅提高其来源可靠性之前,用户必须对AI生成的引用持怀疑态度。
阅读完整的研究以了解更多发现。了解使用生成式AI的风险及应对措施。
(以上内容均由Ai生成)