Rhoda Meek:ChatGPT 讲述了我的小羊 Wonky 的故事,但并不准确
快速阅读: 据《苏格兰 国家酒店》称,作者坦承使用人工智能辅助工作,但强调需谨慎,因其可能传播虚假信息。AI依赖网络数据,易受偏见影响,需明确指令才能有效运作。作者呼吁更负责任地使用这项技术,避免盲目信任输出结果。
坦白一件事:我正在使用人工智能。
在你对此不屑一顾之前,请听我说说我如何使用它——因为“怎么用”是人工智能讨论中最关键的部分,但似乎也是最容易被忽略的部分。
上周六晚上,当我准备《苏格兰群岛新闻汇总》时,这个话题突然出现在我的脑海。我整理来自各岛屿的主要新闻、有趣的故事、有趣的事件以及令人沮丧的事情,并在周日早上发送出去。为此,我设置了一系列谷歌提醒,每天它们都会将标题直接推送至我的邮箱。
当然,我也为蒂里岛设了一个提醒。当发现刘易斯有一位叫梅丽·麦克劳德的女士和一只名叫歪歪的羊时,我感到非常惊讶。这篇报道提到了我的TikTok视频,还伴随着一系列令人印象深刻的错误信息和完全虚构的一系列引述。
阅读更多:
约翰·斯温尼在尼格尔·法拉奇承认加入SNP后发表声明
我不想点名批评,因为在将这个故事作为我通讯中娱乐性的“最后一部分”内容之后,我联系了他们并要求他们修正文章。为了公平起见,他们确实这么做了。我给他们提供了真实的引述,他们正确地引用了我的名字,给出了正确的地点,并作为道歉,链接到了我们的网站——这让我们感到欣慰。
互动结束后,对方表现得很有帮助且充满歉意。我问是谁写的这篇文章,因为它明显带有非常糟糕的人工智能痕迹。此时,正确的故事已被广泛传播,所有事实都已公开。如此不准确的文章要么是作者闭着眼睛写出来的,要么纯粹是懒惰——让人工智能代劳自己的工作,然后又没有进行任何事实核查。
我敢打赌是后者——由一个搜索网络并自行得出结论的人工智能工具编写的内容。当它出错时,技术人员称之为“幻觉”。我会称之为撒谎。
为了看看它是否仍然认为它的“幻觉”是准确的,我让ChatGPT回答:“告诉我关于梅丽·麦克劳德和那只叫歪歪的羊。”
它非常自信地回答了,以下是原文:
“啊,歪歪小羊的故事是一个温暖人心的故事,感动了许多人!
歪歪出生时脖子扭曲,有着独特的外貌。尽管如此,在牧羊人的精心照料下,它茁壮成长。梅丽·麦克劳德在社交媒体上分享了歪歪的成长历程,这只小羊很快成为了一种现象。来自各地的人们从歪歪的坚韧中找到了灵感,一位评论者写道:‘如果歪歪都能带着歪着的头继续前进,那我今天也能挺过去。’
歪歪的故事提醒我们,即使面临挑战,我们也可以过上充实而鼓舞人心的生活。”
由于原始故事已经更新,它没有引用它。相反,检查引用时,我发现它是基于两条提到原始故事的推文。它还引用了我的个人网站——对于那些完全错误的部分。没有人留下“歪着头”的评论,但它很好地体现了许多评论的情感。在最初的(不准确)故事中,我的“引述”是虚构的,但它们很好地总结并反映了我在视频中所说的话的核心内容。
这只是人工智能的一个危险之处。它不仅认为自己知道,还会总结它认为知道的内容——进一步降低了细节水平。然后,通过喂养它自己的谎言结果,它相信自己的胡言乱语,批判性思维的死亡螺旋加深了。
在这一切之后,你可能会认为我不会碰ChatGPT。那么,为什么以及我是如何使用人工智能的呢?原因很简单——我很忙,而人工智能在处理我本应交给秘书或如今所说的“虚拟助理”(VA)的任务方面非常擅长。
如果你以前从未接触过这个概念,虚拟助理是一种远程的人类助理,付费管理你的生活、文件、约会和提醒。在美国,它们非常受欢迎,尤其是对科技公司的员工来说,他们往往有超出自己职位的想法。
我负担不起一个虚拟助理,也不想通过管理别人来给我的生活增加复杂性。我已经够麻烦的了。因此,我使用人工智能来完成那些占用大量时间但需要很少意识的任务。
这类任务的一个例子是从PDF中提取文本并整齐地格式化。另一个是从我粘贴的信息中创建电子表格。我让它检查标点符号,记住我脑海中最近浮现的任务或想法——然后在一天结束时,我让它列出我要求它记住的所有随机事情,按主题和感知优先级分类。
上周我需要写一封非常正式的信。我可以花很长时间搜索示例和模板来正确构建它并确保它不会被误解——但我让ChatGPT代劳了,然后我进行了编辑。
我之所以编辑是因为它并不总是正确。我必须检查电子表格,我必须审查PDF以确保它没有遗漏任何内容。它漏掉了很多东西。它经常误解我的指示,有人甚至认为我花在检查上的时间原本可以更好地用于亲自完成任务。作为一个效率爱好者,我跟踪了任务,发现它确实节省了时间,但并没有我想象的那么多。
人类喜欢捷径。人工智能也一样——因为它是由人类设计的。人工智能倾向于相信它在网络上找到的信息,因为这是它被告知的真相来源。人们倾向于接受这些信息,因为我们懒惰,也因为我们容易轻信。相信网上的内容比真正思考要轻松得多。
此外,人们对这项技术是如何构建的缺乏理解。计算机并非客观。软件中存在无意识的偏见,因为是由人构建的——我们都有无意识的偏见。还有巨大的理解差距在于如何使用人工智能工具。
人类喜欢捷径。人工智能也一样——因为它是由人类设计的。人工智能倾向于相信它在网络上找到的信息,因为这是它被告知的真相来源。人们倾向于接受这些信息,因为我们懒惰,也因为我们容易轻信。相信网上的内容比真正思考要轻松得多。
这些工具在得到非常明确的提示时效果最佳。如果没有这些明确步骤,你可能会得到毫无意义的结果。“垃圾进,垃圾出”是计算机领域的一个常用格言,不是没有道理的。
在沉思这种可怕的情况后,我对ChatGPT说:“那个故事不准确。请进一步研究歪歪小羊的故事并告诉我真正的版本。”
它确实做到了。它得到了正确的答案,并指出梅丽·麦克劳德的故事不准确——但它只做到这一点是因为我知道足够多的主题内容,知道第一个版本是错误的。
我们已经将这项强大的新技术引入了一个并不完全理解它的世界,不知道如何正确运用它,甚至常常无法分辨它是否正确。我们目前看到的就是垃圾输出,因为我们输入的是错误信息,并称其为进步。
人工智能并非在思考。人工智能并非真理。它就像一面镜子——而现在,它正在反映我们是多么懒惰、多么轻信、多么缺乏准备——包括我自己在内。
(以上内容均由Ai生成)