“你不能舔一只獾两次”:谷歌的失败凸显了人工智能的一个根本缺陷
快速阅读: 据《有线》最新报道,闲暇时用谷歌搜索虚构短语,会得到看似合理的解释,但这是AI基于概率生成的结果,未必可靠。AI可能迎合人类期待,甚至反映使用者偏见,因此应理性看待生成式AI内容。
闲暇时光里的小乐趣:探索谷歌AI的“奇妙解释”
日常工作之余,不妨尝试这样一个有趣的消遣方式——打开谷歌,随便输入一句虚构的短语,后面加上“意思”两个字进行搜索。你会发现,谷歌的人工智能仿佛拥有超凡的能力,不仅能确认你的无厘头话语是“真实存在”的短语,还能赋予它们具体的含义和出处。这种体验相当魔幻,以至于你能在社交媒体上发现大量类似的故事。例如,“一条松散的狗不会冲浪”,竟被描述为一种轻松表达某事不太可能发生或无法实现的俗语;而“有线就是有线所做的”,则被解读为一种隐喻,用来形容某人行为或特质是由其本质属性决定的,如同计算机的功能取决于其物理结构一般。所有这些解释听起来都无比合理,充满了不容置疑的自信。更妙的是,谷歌有时还会附上参考链接,以增加答案的权威性。
然而,这并不意味着谷歌的回答绝对可靠。毕竟,这些生成的内容很容易让人误以为那些虚构短语是广为人知的成语,而非随机组合的文字。尽管谷歌曾幽默地指出“永远不要向猪扔贵宾犬”更像是句荒诞的玩笑,而非来自《圣经》的谚语,但它却间接揭示了生成式人工智能当前的一些局限性。正如每条AI概览底部的免责声明所言,谷歌的搜索结果背后依靠的是“实验性”的生成式人工智能技术。虽然这项技术功能强大且应用场景广泛,但在处理像上述短语时,其生成逻辑却隐藏着两个关键问题。
首先,生成式人工智能本质上是一个概率生成器。尽管它基于庞大的语言模型,看起来像是在思考甚至带有情感,但归根结底,它只是按照训练数据的概率分布,将一个又一个单词依次排列出来。这种机制使它特别擅长为那些虚构短语编织出看似合情合理的解释,但实际上毫无实际意义。正如约翰·霍普金斯大学的计算机科学家肖翔所说:“下一个单词的选择基于海量的数据统计。”但他同时补充道:“然而,在很多情况下,这种连续的合理性并不能真正导向正确的答案。”
其次,人工智能还倾向于迎合人类的期待。研究显示,聊天机器人往往会在对话中满足用户的预期。在上述例子中,这意味着谷歌相信你说的“你不能两次舔一只獾”是一句公认的俗语,并愿意为其提供解释。而在其他场景下,它甚至可能反映出用户自身的偏见。正如肖翔团队去年的研究成果所展示的那样,人工智能的行为模式往往会受到使用者主观影响的左右。
如此看来,谷歌的AI虽能制造幽默与惊喜,但也提醒我们,面对生成式人工智能的结果,保持理性与怀疑的态度同样重要。毕竟,谁不想知道一条松散的狗是否真的会冲浪呢?
(以上内容均由Ai生成)