你能相信 AI 聊天机器人的回应吗?
快速阅读: 据《今日社交媒体》称,随着人们对AI聊天机器人的依赖增加,其受所有者影响程度及对信息流通的影响引发关注。近期,X公司的Grok因代码被擅自修改传播争议内容,虽采取措施但问题依旧存在。AI工具背后的数据显示,不应全信其答案,但用户常误以为其智能,需警惕。
随着越来越多的人依赖AI聊天机器人获取各类问题的答案,关于这些AI聊天机器人受其所有者影响的程度,以及这种影响对网络信息流通可能造成的影响,逐渐成为热议话题。
上周,X公司的Grok聊天机器人成为了舆论的焦点。据报道,Grok代码库内部的调整导致其回复中出现了争议性的错误。正如记者马特·宾德在Threads上分享的例子,不知为何,Grok开始在不相关的问题中随机向用户传播有关南非“白人种族灭绝”的信息。为什么会出现这种情况?几天后,xAI对此错误作出了说明,指出:“5月14日凌晨3点15分左右(太平洋夏令时间),X平台上的Grok回复机器人被未经授权地修改了。这一更改指示Grok针对某一政治话题给出特定回应,违反了xAI的内部政策和核心价值观。”
因此,有人出于某种目的擅自修改了Grok的代码,似乎指示机器人传播与南非政治宣传无关的内容。这种情况令人担忧,尽管xAI团队声称已经立即采取新措施来检测并防止此类事件再次发生(同时使Grok的控制代码更加透明),但Grok在本周稍晚的时候再次开始提供异常回复。不过,这次的错误更易追踪。
上周二,埃隆·马斯克回应了一名用户的关切,该用户提到Grok引用了《大西洋》和BBC作为可信来源,马斯克表示这些特定媒体的引用让他感到尴尬。因为正如预期的那样,它们都是马斯克批评过的主流媒体之一,这些媒体被认为放大了虚假报道。显然,结果是Grok现在开始告诉用户它对某些数字和数据持“一定怀疑态度”,因为“数字可以被操纵以服务于政治叙事”。
看来,马斯克似乎建立了一种新的机制,以避免引用主流媒体带来的尴尬,这更符合他自己的媒体观点。但这是否准确呢?基于马斯克个人偏见,Grok的准确性是否会受到影响,因为它被指示避免某些来源?xAI依赖的Grok代码库是公开可用的,并且公众可以审查并对任何更改提供反馈。但这依赖于人们实际查看这些内容,而代码数据可能并不完全透明。X的代码库也是公开可用的,但未定期更新。因此,xAI采取类似方法,引导人们使用其开放和可访问的方法,但在出现问题时才更新代码,这不足为奇。这种方法提供了透明的表象,同时保持秘密,同时也依赖于其他员工不会简单地改变代码,这似乎是可能的。
与此同时,xAI并不是唯一一家被指控存在偏见的AI供应商。OpenAI的ChatGPT在某些时候也审查过政治查询,谷歌的Gemini也是如此,而Meta的AI机器人在一些政治问题上也遇到了障碍。随着越来越多的人转向AI工具获取答案,这似乎存在问题,网络信息管控的问题将会延续到网络发展的下一阶段。
尽管埃隆·马斯克誓言要对抗“觉醒”式的审查,尽管马克·扎克伯格找到了与右翼方法的新亲和力,尽管AI似乎提供了一条获取背景信息的新途径,是的,你现在可以更快地以简化、对话的方式获得更具体的信息。但是,谁掌控数据流向就决定了回答,因此在评估其准确性时,值得考虑你的AI回复来自哪里。因为虽然这些工具被称为“人工智能”,但实际上它们一点也不智能。背后并没有思考过程,也没有概念化的进程。这不过是大规模的电子表格,匹配与查询中包含的术语相关的可能回答。xAI从X平台获取信息,Meta使用Facebook和Instagram帖子等来源,谷歌的回答来源于网页片段。每种方法都有缺陷,这就是为什么不应完全信任AI答案的原因。
然而,与此同时,这些回答被呈现为“智能”,并且以如此有效的方式传达,确实让更多的用户进入信任状态,认为这些工具提供的信息是正确的。这里没有智能,只有数据匹配,当你使用这些工具时,值得记住这一点。
(以上内容均由Ai生成)