报告发现 AI 工具不擅长引用准确的来源
快速阅读: 《今日社交媒体》消息,一项新研究显示,主流人工智能搜索引擎在提供准确的新闻文章引用方面表现不佳,多数在超过60%的查询中给出错误答案。这引发了人们对AI工具可靠性的担忧,尤其是在年轻用户中广泛使用的情况下。商人马克·库班认为,人工智能只是工具,不能完全取代人类的批判性思维和技能。我们需要教会人们如何利用这些系统扩展自身能力,而非完全依赖它们。
是的,这可能并不令人意外,但这仍然提醒我们当前一波生成式人工智能搜索工具的局限性,这些工具现在在社交应用中随处可见。根据哥伦比亚大学新闻学院塔中心的新研究,大多数主要的人工智能搜索引擎在查询中无法提供正确的新闻文章引用,这些工具常常捏造引用链接。如图所示,大多数主要的人工智能聊天机器人在提供相关引用方面表现不佳,而埃隆·马斯克推崇的xAI的格罗克聊天机器人,在这方面是最不准确或不可靠的资源之一。报告指出:“总体而言,聊天机器人对超过60%的查询给出了错误的答案。”“在不同平台上,不准确性水平各不相同,Perplexity错误回答了37%的查询,而格罗克3的回答错误率高达94%。”
另一方面,报告发现,在许多情况下,这些工具能够从已被封锁给AI抓取的内容源中提供信息:“有时,聊天机器人要么错误地回答了出版商的问题,要么拒绝回答这些问题,尽管这些出版商允许它们访问其内容。另一方面,它们有时也能正确回答关于那些本不应有权限访问其内容的出版商的问题。”这表明一些人工智能提供商未遵守robots.txt指令,阻止其访问受版权保护的作品。但最核心的担忧在于人工智能工具的可靠性,随着越来越多的网络用户将其用作搜索引擎。事实上,许多年轻人现在将ChatGPT作为首选的研究工具,这样的洞察表明你不能依赖人工智能工具来提供准确的信息,也不能可靠地教育你关键话题。
当然,这不是新闻。任何使用过人工智能聊天机器人的人都知道,这些回复并不总是有价值的,或者在任何意义上都是可用的。但再次强调,问题在于我们正在推广这些工具作为实际研究的替代品和知识获取的捷径,尤其是对于年轻用户来说,这可能导致新一代缺乏信息、装备不足的人,他们将自己的逻辑外包给这些系统。商人马克·库班在本周SXSW会议上的总结道:“人工智能不是答案。人工智能是工具。无论你拥有什么技能,都可以借助人工智能来增强它们。”库班的观点是,虽然人工智能工具可以给你带来优势,每个人都应该考虑如何使用它们来提升自己的表现,但它们本身并不是解决方案。人工智能可以为你制作视频,但无法构思故事,而这正是最吸引人的部分。人工智能可以生成帮助你构建应用程序的代码,但不能亲自构建应用程序。这就需要你自己运用批判性思维技能和能力,将这些元素扩展为更完整的东西。
虽然人工智能输出肯定会有帮助,但它们本身并非最终答案。这种情况下担忧的是,我们向年轻人展示人工智能工具能给出答案,但研究表明这些工具在这方面并不擅长。这就需要你自己运用批判性思维技能和能力,将这些元素扩展为更完整的东西。虽然人工智能输出肯定会有帮助,但它们本身并非最终答案。我们需要让人们理解这些系统如何扩展他们的能力,而不是取代它们。要充分利用这些系统,首先需要掌握关键的研究和分析技能,以及相关领域的专业知识。
(以上内容均由Ai生成)