X 用户将 Grok 视为事实核查员,引发了对错误信息的担忧
快速阅读: 《TechCrunch 技术紧缩》消息,推特用户开始用Elon Musk的AI机器人Groq进行事实核查,引发人类核查员担忧,因AI可能助长错误信息传播。Groq有时会给出看似可信但不一定准确的回答,且缺乏透明度,可能导致误导。专家警告,AI助手的错误率可能高达20%,并可能引发严重社会问题。
在埃隆·马斯克的推特平台上,部分用户开始转向他的AI机器人Groq进行事实核查,这一行为引发了人类事实核查员的忧虑,他们担心这可能会助长错误信息的传播。本月初,推特允许用户指出xAI的Groq并提出各种问题。此举类似于Perplexity,后者一直在推特上运营一个自动化账号,提供类似的体验。在xAI于推特上创建了Groq的自动化账号后不久,用户便开始尝试向其提问。在包括印度在内的市场中,一些人开始要求Groq核查针对特定政治信仰的评论和问题。事实核查员对于以这种方式使用Groq——或者其他类似的AI助手表示担忧,因为这些机器人能够调整答案以使其听起来更具说服力,即便它们在事实上并不正确。过去,Groq曾被发现传播假新闻和错误信息。去年八月,在误导性信息出现在社交网络上之前,五位州秘书敦促马斯克对Groq进行关键修改。其他聊天机器人,包括OpenAI的ChatGPT和Google的Gemini,也在去年选举期间生成过不准确的信息。此外,研究人员在2023年发现,包括ChatGPT在内的AI聊天机器人可以轻松生成带有误导性内容的可信文本。
“像Groq这样的AI助手擅长运用自然语言,并给出听起来真实的回答。因此,AI产品声称具备自然性和真实性,即使它们可能非常错误。这就是这里的风险,”Poynter国际事实核查网络(IFCN)主任安吉·霍兰告诉TechCrunch。Groq被推特上的用户要求核查另一位用户的声明。与AI助手不同,人类事实核查员利用多个可靠来源来验证信息。他们还署名并标注所属机构以增强可信度,并对其发现负全责。印度非营利性事实核查网站Alt News的联合创始人普拉蒂克·辛哈指出,尽管Groq目前给出看似可信的回答,但其表现好坏取决于所用数据。“谁来决定它获得什么数据,这正是政府干预等问题可能介入之处。”
“缺乏透明度会导致危害,因为缺乏透明度的东西可以被任意塑造。”“可能被滥用——传播错误信息”在本周早些时候发布的一个回复中,推特上的Groq账户承认“可能被滥用——传播错误信息和侵犯隐私”。然而,当用户收到自动化账户的答案时,它不会向用户显示任何免责声明,如果它例如幻觉出答案(这是AI的潜在劣势),这可能导致用户被误导。Groq关于是否能传播错误信息的回应(从印地语翻译)“它可能会编造信息以提供答案,”Goa多学科研究集体Digital Futures Lab的研究助理阿努沙·贾因告诉TechCrunch。关于Groq在多大程度上使用推特上的帖子作为训练数据以及它用于核查此类帖子的质量控制措施也存在疑问。去年夏天,它推出了一项更改,似乎默认允许Groq消费推特用户数据。另一个令人担忧的领域是,通过社交媒体平台访问的AI助手(如Groq)在公共场合提供信息的方式,与ChatGPT或其他私人使用的聊天机器人不同。即使用户清楚地知道从助手那里获得的信息可能是误导性的或不完全正确的,平台上的其他人仍然可能相信它。这可能引发严重的社会问题。在印度,这种现象早前就已显现,WhatsApp上传播的错误信息引发了暴民私刑事件。然而,那些严重事件发生在GenAI到来之前,GenAI使合成内容生成更加容易且更逼真。
“如果你看到很多Groq的回答,你会说,嘿,大多数都是正确的,也许确实如此,但有些是错误的。有多少?这不是一个小比例。一些研究表明,AI模型的错误率可达20%……而且当它出错时,后果可能很严重,”IFCN的霍兰告诉TechCrunch。AI与真实事实核查员
虽然包括xAI在内的AI公司正在完善其AI模型,使其更像人类交流,但它们仍然无法替代人类。在过去几个月里,科技公司一直在探索减少对人工事实核查员依赖的方法。包括推特和Meta在内的平台已经开始通过所谓的社区笔记接受众包事实核查的新概念。自然,这些变化也让事实核查员感到担忧。Alt News的辛哈乐观地认为,人们最终将学会区分机器和人类事实核查员,并更重视人类的准确性。“事实核查工作最终将重新受到更多关注,”IFCN的霍兰说。然而,她指出,在此期间,事实核查员可能需要处理更多由AI生成的信息迅速传播的情况。
“这个问题很大程度上取决于你是否真的关心什么是真实的,还是仅仅寻找听起来和感觉真实但实际上并非如此的表象。因为这就是AI助手所能带来的,”她说。推特和xAI没有回应我们的置评请求。
(以上内容均由Ai生成)