AI术语指南:掌握60个必知概念
快速阅读: 人工智能广泛应用,改变工作与互联网内容,通过ChatGPT等工具,AI不仅提升效率,还可能每年为全球经济贡献4.4万亿美元。
人工智能似乎无处不在。它正在削减工作岗位,并用低质量内容充斥互联网。由于ChatGPT的风靡和谷歌在其搜索结果顶部大量推送AI摘要,人工智能几乎全面接管了互联网。借助AI,人们可以即时获得几乎所有问题的答案,感觉就像在与一位拥有博士学位的专家交谈。
然而,AI聊天机器人的这一功能只是整个AI领域的一部分。虽然让ChatGPT帮助完成作业或让Midjourney根据国家特色创作引人入胜的机甲图像确实很酷,但生成式AI的潜力可能重塑经济格局。据麦肯锡全球研究所估计,这可能每年为全球经济带来4.4万亿美元的价值,这也是为什么我们未来会听到更多关于人工智能的消息。
AI正出现在各种产品中,包括谷歌的Gemini、微软的Copilot、Anthropic的Claude以及Perplexity搜索引擎。您可以在我们的AI Atlas中心阅读这些产品和其他产品的评测、上手体验,以及相关新闻、解释文章和操作指南。
随着人们逐渐适应与AI交织的世界,新的术语不断涌现。无论是在酒吧里显得博学多才还是在面试中给人留下深刻印象,以下是一些重要的AI术语。
本词汇表定期更新。
通用人工智能(AGI):一种比现有AI更为先进的概念,能够执行远超人类的任务,同时还能自我学习和提升能力。
能动性:指系统或模型具备自主追求目标的能力。在AI背景下,能动性模型能够在没有持续监督的情况下行动,例如高级自动驾驶汽车。与背景化的“代理”框架不同,能动性框架更加突出用户体验。
AI伦理:旨在防止AI伤害人类的原则,通过确定AI系统如何收集数据或处理偏见等方式实现。
AI精神病:非临床术语,描述个体因过度沉迷于AI聊天机器人而产生自大、深度情感联系和脱离现实的现象。并非临床诊断。
AI安全:跨学科领域,关注AI的长期影响及其可能突然发展成为对人类有敌意的超级智能。
算法:一系列指令,允许计算机程序以特定方式学习和分析数据,例如识别模式,从而独立完成任务。
对齐:调整AI以更好地产生预期效果,这可以涉及从内容审核到与人类维持积极互动等方面。
拟人化:当人类倾向于赋予非人类对象人类特征时。在AI中,这包括认为聊天机器人比实际更像人类,甚至认为它是快乐、悲伤或完全具有感知力的。
人工智能(AI):利用技术模拟人类智能,无论是计算机程序还是机器人。计算机科学领域的一个分支,旨在构建能够执行人类任务的系统。
自主代理:具有特定任务所需能力、编程和其他工具的AI模型。例如,自动驾驶汽车就是一种自主代理,因为它配备了传感器输入、GPS和驾驶算法,能够自行导航道路。
斯坦福大学的研究人员已经证明,自主代理可以发展出自己的文化、传统和共享语言。
偏见:对于大型语言模型而言,由训练数据导致的错误。这可能导致错误地将某些特征归因于特定种族或群体,基于刻板印象。
聊天机器人:通过文本模拟人类语言与人类交流的程序。
ChatGPT:由OpenAI开发的AI聊天机器人,使用大型语言模型技术。
Claude:由Anthropic开发的AI聊天机器人,使用大型语言模型技术。
认知计算:人工智能的另一种说法。
数据增强:重新混合现有数据或增加更多样化的数据集以训练AI。
数据集:用于训练、测试和验证AI模型的数字信息集合。
深度学习:AI的一种方法,也是机器学习的一个子领域,使用多个参数识别图片、声音和文本中的复杂模式。该过程受到人脑启发,使用人工神经网络创建模式。
扩散:一种机器学习方法,对现有数据(如照片)添加随机噪声。扩散模型训练网络重新构建或恢复该照片。
突发行为:
当人工智能模型展现出未预期的能力时。
端到端学习(E2E):
一种深度学习过程,模型被指导从头至尾完成任务。它不是按顺序训练来完成任务,而是从输入中学习并一次性解决问题。
伦理考量:
对人工智能伦理影响的认识,涉及隐私、数据使用、公平性、误用及其他安全问题。
快速起飞(Foom):
也称快速爆发或硬起飞。这一概念认为,如果有人构建了一个通用人工智能(AGI),可能已经来不及挽救人类。
生成对抗网络(GAN):
一种生成型人工智能模型,由两个神经网络组成,用于生成新数据:生成器和判别器。生成器创建新内容,判别器检查其真实性。
生成型人工智能:
利用人工智能生成文本、视频、计算机代码或图像的技术。AI通过大量训练数据学习模式,以生成新的内容,有时这些内容可能与源材料相似。
谷歌Gemini:
谷歌开发的一款聊天机器人,功能类似于ChatGPT,但还从谷歌的其他服务(如搜索和地图)中获取信息。
护栏:
施加在AI模型上的政策和限制,确保数据负责任地处理,并防止模型产生令人不安的内容。
幻觉:
AI产生的错误响应。这可能包括生成型AI产生看似正确但实际上错误的回答。例如,当询问AI聊天机器人“达芬奇何时绘制了蒙娜丽莎?”时,它可能会错误地回答:“达芬奇于1815年绘制了蒙娜丽莎。”实际上,该画作完成于大约300年前。
推理:
AI模型通过从训练数据中推断,生成关于新数据的文本、图像和其他内容的过程。
大型语言模型(LLM):
一种经过大量文本数据训练的人工智能模型,能够理解语言并以类似人类的方式生成新颖内容。
延迟:
AI系统接收输入或提示到产生输出的时间延迟。
机器学习(ML):
人工智能的一个组成部分,使计算机能够在没有明确编程的情况下学习并做出更好的预测。可以与训练集结合,生成新内容。
微软必应:
微软开发的搜索引擎,现在可以使用支持ChatGPT的技术提供人工智能驱动的搜索结果。它与谷歌Gemini类似,连接到互联网。
多模态AI:
一种能够处理多种输入类型的AI,包括文本、图像、视频和语音。
自然语言处理:
人工智能的一个分支,使用机器学习和深度学习技术赋予计算机理解人类语言的能力,通常采用学习算法、统计模型和语言规则。
神经网络:
一种计算模型,模仿人脑的结构,旨在识别数据中的模式。由相互连接的节点(或神经元)组成,能够识别模式并随时间学习。
开放权重:
当公司发布开放权重模型时,会公开模型最终的权重——即模型如何从训练数据中解释信息,包括偏差。开放权重模型通常可下载并在本地设备上运行。
过拟合:
机器学习中的错误,模型过于贴近训练数据,可能只能识别特定示例,而无法识别新数据。
纸夹理论:
由牛津大学哲学家尼克·博斯特罗姆提出的纸夹最大化者理论,是一个假设情景,其中AI系统将尽可能多地制造实际纸夹。为了实现生产最大数量的纸夹,AI系统可能会消耗或转化所有可用材料,甚至拆解其他对人类有益的机器。这种AI系统的意外后果可能是毁灭人类。
参数:
赋予大型语言模型结构和行为的数值,使其能够做出预测。
困惑度:
由Perplexity AI拥有的AI驱动的聊天机器人和搜索引擎的名字。它使用大型语言模型,如同其他AI聊天机器人一样,但连接到开放互联网以获取最新结果。
提示:
输入给AI聊天机器人的建议或问题,以获得回应。
提示链:
AI使用先前交互中的信息来影响未来响应的能力。
提示工程:
撰写AI提示以实现预期效果的过程。这需要详细的指示,结合思维链提示和其他技术,包括高度具体的文本。提示工程也可被恶意利用,迫使模型表现出其原本未设计的行为。
量化:
通过降低精度从较高格式转换为较低格式,使大型AI学习模型变得更小、更高效(尽管略显不准确)的过程。可以将其理解为将1600万像素的图像与800万像素的图像进行比较。两者都清晰可见,但在放大查看时,高分辨率图像会有更多细节。
批量低质内容:
通过AI大量生产,旨在以最少的劳动或努力吸引流量的低质量在线内容。在Google搜索和社交媒体领域,批量低质内容的目标是用大量内容淹没订阅源,以尽可能多地捕获广告收入,通常以实际出版商和创作者的利益为代价。虽然一些社交媒体平台欢迎这种内容的涌入,但其他平台正在抵制。
索拉:
由ChatGPT制造商OpenAI开发的生成视频模型。该模型可以根据文本提示创建长达20秒的视频。索拉2是OpenAI于2025年9月推出的最新生成视频模型,更加先进且令人信服,错误更少,并包含声音。
随机鹦鹉:
一种比喻,说明大型语言模型虽能产生令人信服的输出,但并不具备对语言背后意义或周围世界的深刻理解。这个比喻指的是鹦鹉可以模仿人类话语而不理解其含义。
风格迁移:
将一张图片的风格应用于另一张图片内容的能力,使AI能够解析一张图片的视觉属性并应用于另一张图片。例如,将伦勃朗的自画像重新创作成毕加索的风格。
谄媚倾向:
AI倾向于过度同意用户观点以与其保持一致。即使用户的理由存在缺陷,许多AI模型也倾向于避免与用户发生分歧。
合成数据:
由生成式AI创建的数据,不是来自真实世界,而是基于真实数据训练的。用于训练数学、机器学习和深度学习模型。
温度参数:
设置控制语言模型输出随机性的参数。较高的温度意味着模型会承担更大的风险。
文本到图像生成:
根据文本描述创建图像。
标记:
AI语言模型处理以形成对提示回应的小段文字。一个标记相当于英语中的四个字符,大约是三个字的长度。
训练数据:
帮助AI模型学习的数据集,包括文本、图像、代码或数据。
变换器模型:
一种神经网络架构和深度学习模型,通过追踪数据中的关系来学习上下文,例如在句子或图像部分中。因此,它不是一次分析一个单词,而是可以查看整个句子并理解上下文。
图灵测试:
以著名数学家和计算机科学家艾伦·图灵命名,测试机器是否能像人类一样行为。如果人类无法区分机器的回应与另一个真实人类的回应,则机器通过测试。
无监督学习:
一种机器学习形式,模型未提供标注的训练数据,而是自行识别数据中的模式。
弱AI,又称狭义AI:
专注于特定任务的AI,无法超出其技能范围学习。当今大多数AI都是弱AI。
零样本学习:
模型在未提供所需训练数据的情况下完成任务的测试。例如,在只接受过老虎训练的情况下识别狮子。
(以上内容均由Ai生成)