控制的错觉:促使 Gen AI 如何将您重新定位为“平均水平”
快速阅读: 《中东活动》消息,本文探讨了生成式人工智能(GenAI)的工作原理及局限性,指出其通过预测生成内容,倾向于“平均值”,而非真正的创造力。作者建议用户更好地理解提示工程,以更精准地引导GenAI,避免陷入常见路径,鼓励探索独特见解。
最近参与了一个关于人工智能的讨论小组后,我注意到一个问题反复出现:许多人其实并不明白人工智能与我们日常使用的那种人工智能之间的区别。我们所用的工具,比如ChatGPT、图像生成器和写作助手,不仅仅是“人工智能”,它们属于生成式人工智能(GenAI),这是一种非常特定的机器学习类别,主要通过预测接下来的内容来生成内容。
作为一名在研究与创意工作之间切换的人,我并不认为GenAI是一个魔法工具,我更愿意把它看作是一个导航系统。每次我们给它提供提示时,实际上是在为它指明方向,但这并不是在一个完全开放的地图上进行的。我们使用的是一些已经被前人探索过、绘制过并优化过的路径。随着越来越多的人遵循这些路径,它们变得越来越平坦且持久。因此,尽管你可能觉得自己在探索新事物,但实际上大多数情况下你只是被重新引导到了最受欢迎的路径上。
如果你的提示让你感到像是在原地打转,这不是你的错觉,你只是在沿着早已存在的道路上行走。我们需要停止把GenAI当作自动驾驶仪,而应开始学习它实际的工作原理。如果你的提示让你觉得像在兜圈子,那是因为你只是在沿着既定的路线前进。
让我们看看它是如何从历史发展而来,GenAI是如何运作的,以及当我们大多数的道路都通向同一个地方时意味着什么?
### 历史:从逻辑机器到语言模型
“人工智能”这一术语最早是在1956年的达特茅斯夏季研究项目中提出的。早期的人工智能系统专注于符号推理和逻辑问题解决,但由于计算能力有限而受到限制。想想2014年莫滕·泰勒德姆的电影《模仿游戏》中的密码机。这些限制导致了20世纪70年代第一次人工智能寒冬的到来,当时兴趣和资金急剧下降。
到了2000年初,计算能力、算法开发和数据可用性的进步带来了大数据时代。人工智能从理论模型转向了实际应用,自动化了结构化数据任务,例如亚马逊和Netflix的电子商务推荐引擎、早期社交媒体排名算法以及谷歌的自动补全等预测文本工具。
2017年,谷歌的研究人员在具有里程碑意义的论文《注意力就是你所需要的全部》中引入了Transformer架构。这一创新促成了大型语言模型(LLMs)和当今生成式人工智能系统的基石结构的发展。
### 功能:Gen AI 如何以平均方式思考
一切都始于训练数据:大量的文本,经过清理、过滤,然后被分解成小的部分,称为标记。一个标记可能是一个完整的单词、一个单词的一部分,甚至是标点符号。每个标记都被分配了一个数字ID,这意味着模型实际上没有阅读语言,它处理的是一系列代表语言的数字流。
一旦标记化,模型通过预测序列中的下一个标记,一次又一次地学习,跨越数十亿个例子。然而,并非所有数据都被同等对待。高质量的来源,如精选书籍或同行评审的文章,比随意的互联网文本受到更大的权重。这影响了某些标记模式被强化的频率。因此,如果一个短语在高质量上下文中反复出现,模型更有可能将其内化为一种可靠的模式。基本上,它学会了什么是“平均”的响应,不是数学意义上的平均值,而是通过收敛到最统计稳定的延续。
这种平均过程不仅限于训练,在你使用模型时也会再次出现。你输入的每个提示都会被转换成标记,通过模型的多层结构,在这里每个标记都会与其他标记进行所谓的自注意力比较,这是一种实时加权平均上下文的方式。这些权重不会显示给提示用户。然后,模型根据它所看到的所有模式输出它认为最有可能的标记。这就使得系统严重倾向于中位数,即分布的安全中间部分。
这就是为什么答案往往感觉很精致但又谨慎,它们被优化为避免出错,追求最有可能正确的结果。你可以通过一个叫做温度的设置来改变“平均”,这个设置控制着模型聚焦于中位数结果的程度。在低温度下,模型会保持在统计中心附近:安全、可预测且有点枯燥。当你调高温度时,模型开始将概率分散到中位数之外,允许不太常见、更令人惊讶的标记进入。但这种变化伴随着波动性。当模型输出远离分布的中心时,你得到的是随机性,不一定是创造力。
所以,尽管Gen AI 被设计为复制中间值,如果说它有智慧的话,那就在其能够将数十亿种可能性提炼成一个标准化输出的能力上。尽管这非常强大,但也揭示了系统的基本限制:它不创造意义,而是平均意义。
### Gen AI 提示:在看不见的路上引导系统
提示不仅仅是为了提问,更是为了缩小到模型在训练期间已绘制的精确统计地形。当我们编写提示时,我们正在穿越标记空间,触发模型之前见过的模式,并从系统内置的平均值中提取信息。提示越具体,围绕某些标记及其学习概率的聚类就越紧密。
但我们常常忘记用户界面正在平滑处理复杂性。我们看不到我们的词汇选择的加权影响,也看不到塑造响应随机性的隐形温度设置。这些模型是为服务普通用户而设计的,另一种平均值,这使得用精确度来引导它们变得更加困难。
所以虽然提示可能感觉是开放式的,但实际上是在与看不见的分布和系统默认值进行谈判,这些默认值所做的决定比我们想象的要多得多。像PICO(人物、指令、上下文、输出)或RTF(角色、任务、格式)这样的提示框架可以帮助塑造结构,但值得记住的是,它们也是基于对大多数人来说大多数时间都有效的假设而构建的。这依然是一个平均值。
有时你会很幸运,模型的输出会超出你自己的知识范围,听起来很棒、有洞察力,甚至可能是新颖的。但当你把它交给某个深入该领域的人时,就会很明显:它听起来像是AI。这就是诀窍所在,理解你触发的平均值,并知道它是否符合你的目的。谁会读这个?他们期望什么?他们需要多深的深度或原创性?这才是应该塑造你的提示的因素。
无论你是使用结构化的框架,还是只是自由书写,重要的是清楚目标并意识到你所引用的地形。有时,最好的策略是战术性的:关闭聊天窗口,打开一个新的窗口。之前的标记、缓存路径和上下文历史可能会使一切都偏离正轨。这不是你的错。平均值只是变得嘈杂了。重新开始,重新调整,瞄准更好的平衡点。
### 结论:当平均值成为界面
让我担心的一件事是GenAI背后的公司如何学会优化平均值。随着更多的人使用提示工程模板和框架,系统开始围绕这些模式塑造自己。这些模型被训练来适应,而它们适应的对象是我们,我们的习惯、我们的捷径、我们的结构化格式。
那么,当界面本身开始强化这些相同的平均值时会发生什么?达到任何超出可能、预期和熟悉范围的东西变得更加困难。奇怪的、原创的、统计上不可能的东西开始退居幕后。
当我们审视自主人工智能时,这种情况变得更加复杂,这种人工智能似乎能自行做出决定或提供强有力的输出。它可以非常有说服力。但问题是:它仍然建立在平均值的基础上。
我们冒着不仅将写作或研究的任务外包出去的风险,还将思考本身外包出去。当机器被调整为反映最常见的内容时,我们不仅是在外包智力,还在外包我们的细微差异,我们的能力去持有一个不整齐地坐在中间的意见。
所以,下次当一个人工智能给你一些感觉怪异聪明或令人沮丧地显而易见的东西时,停下来考虑一下到底发生了什么。它不是创造性的。它在导航,从它之前见过的最常见、最被接受、最重复的路径中提取。你的提示触发了这条路线,这条路线反映了成千上万个像你一样的人的提示。
一旦你明白了这一点,你就可以开始更有目的地引导。你可以识别出你的方向是否被重新引导到受欢迎的小道上,以及什么时候该离开高速公路。
有时,当输出如此平均以至于感觉像坏了时,最明智的做法很简单:关闭窗口,重置路径,重新开始。因为时不时地,唯一发现新事物的方法就是停止跟随人群。
**作者:哈比娅·哈桑**
**SAE迪拜设计与视觉传播系主任**
**标签:**
算法开发 | 人工智能 | 平均值 | 上下文 | 数据可用性 | 格式 | Gen AI | 生成式人工智能 | Gen AI | 谷歌 | 哈比娅·哈桑 | 交互 | 中位数 | 输出 | 模式 | 人物 | PICO | 角色 | 任务 | 温度 | 用户界面 | 用户提示 | 变异
(以上内容均由Ai生成)