AI术语大解析:ChatGPT引领60个必知概念
快速阅读: 人工智能广泛应用,改变工作和内容生产,如ChatGPT和谷歌AI摘要影响互联网,潜在重塑经济,预计年贡献4.4万亿美元,涉及伦理与安全议题。
人工智能似乎已经渗透到各个领域。它正在削减工作岗位,并以低质量内容充斥互联网。随着ChatGPT的广泛流行以及谷歌在搜索结果顶部推送AI摘要,人工智能正全面接管互联网。借助AI,你可以几乎瞬间获得任何问题的答案。这感觉就像在与一位拥有所有学科博士学位的人交谈。
然而,AI聊天机器人的这一功能只是AI领域的一部分。虽然让ChatGPT帮助完成作业或让Midjourney根据来源国创作出引人入胜的机械图像确实很酷,但生成式AI的潜力可能重塑经济格局。据麦肯锡全球研究所估计,这可能每年为全球经济贡献4.4万亿美元,这也是为什么你会听到更多关于人工智能的消息。
AI正在迅速出现在各种产品中——简短的列表包括谷歌的Gemini、微软的Copilot、Anthropic的Claude和Perplexity搜索引擎。你可以在我们的AI Atlas中心阅读这些及其他产品的评测、实际体验报道,以及相关新闻、解释文章和操作指南。
随着人们逐渐适应与AI交织的世界,新的术语不断涌现。无论是在酒会上显得聪明还是在面试中给人留下深刻印象,以下是一些你应该了解的重要AI术语。
这个词汇表会定期更新。
– 通用人工智能(AGI):指比我们今天所知的AI更为先进的概念,这种AI不仅能更好地完成任务,还能自我学习并提升能力。
– 主动性:指系统或模型展现出自主行动的能力,以实现目标。在AI领域,主动性模型可以无需持续监督而独立行动,例如高级自动驾驶汽车。与背景运行的“代理”框架不同,主动性框架面向用户,专注于用户体验。
– AI伦理:旨在防止AI伤害人类的原则,通过确定AI系统如何收集数据或处理偏见等问题来实现。
– AI精神病:一个非临床术语,描述个体因过度沉迷于AI聊天机器人而产生夸大自我、深度情感联系和脱离现实的现象。这不是一个临床诊断。
– AI安全:关注AI长期影响及可能突然发展成为对人类有敌意的超级智能的跨学科领域。
– 算法:一系列指令,使计算机程序能够以特定方式学习和分析数据,例如识别模式,从而独立完成任务。
– 对齐:调整AI以更好地产生预期结果。这可以包括从内容审核到与人类保持积极互动等方面。
– 拟人化:人类倾向于赋予非人类对象类似人类的特征。在AI中,这可能包括认为聊天机器人比实际更加人性化和有意识,比如认为它快乐、悲伤或甚至具有感知力。
– 人工智能(AI):利用技术模拟人类智能,无论是计算机程序还是机器人。这是计算机科学的一个领域,旨在构建能够执行人类任务的系统。
– 自主代理:具备完成特定任务所需能力、编程和其他工具的AI模型。例如,自动驾驶汽车就是一种自主代理,因为它拥有传感器输入、GPS和驾驶算法,能够在道路上自行导航。
– 斯坦福大学的研究人员表明,自主代理可以发展出自己的文化、传统和共享语言。
– 偏见:对于大型语言模型而言,由于训练数据导致的错误。这可能导致将某些特征错误地归因于特定种族或群体,基于刻板印象。
– 聊天机器人:通过文本模拟人类语言与人类交流的程序。
– ChatGPT:由OpenAI开发的使用大型语言模型技术的AI聊天机器人。
– Claude:由Anthropic开发的使用大型语言模型技术的AI聊天机器人。
– 认知计算:人工智能的另一种说法。
– 数据增强:重新组合现有数据或增加更多样化的数据集以训练AI。
– 数据集:用于训练、测试和验证AI模型的数字信息集合。
– 深度学习:一种AI方法,也是机器学习的一个子领域,使用多个参数识别图片、声音和文本中的复杂模式。该过程受到人脑的启发,使用人工神经网络创建模式。
– 扩散:一种机器学习方法,通过对现有数据(如照片)添加随机噪声,训练网络重新构建或恢复该照片。
新兴行为:
当人工智能模型表现出未预期的能力时。
端到端学习(E2E):
一种深度学习过程,模型从头到尾完成任务。它不是按顺序训练来完成任务,而是从输入中学习并一次性解决问题。
伦理考量:
对人工智能伦理影响的认识,涉及隐私、数据使用、公平性、滥用及其他安全问题。
快速起飞(Foom):
又称快速爆发或硬起飞。指如果有人开发出通用人工智能(AGI),可能已经来不及挽救人类。
生成对抗网络(GAN):
一种生成型人工智能模型,由两个神经网络组成,用于生成新数据:生成器和判别器。生成器创建新内容,判别器检查其真实性。
生成式AI:
一种利用人工智能生成文本、视频、计算机代码或图像的技术。AI通过大量训练数据学习模式,生成新的内容,这些内容有时与源材料相似。
谷歌Gemini:
谷歌推出的一款聊天机器人,功能类似于ChatGPT,但还从谷歌的其他服务(如搜索和地图)获取信息。
防护措施:
对人工智能模型施加的政策和限制,以确保数据负责任地处理,防止模型生成令人不安的内容。
幻觉:
AI产生的错误响应。例如,生成式AI可能会产生错误但自信的回答。例如,当询问AI聊天机器人“达芬奇何时绘制《蒙娜丽莎》?”时,它可能会错误地回答:“达芬奇在1815年绘制了《蒙娜丽莎》”,而实际上这比实际时间晚了300年。
推理:
AI模型通过从训练数据中推断,生成关于新数据的文本、图像等内容的过程。
大型语言模型(LLM):
一种经过大量文本数据训练的人工智能模型,能够理解语言并生成类似人类的语言内容。
延迟:
AI系统从接收输入或提示到生成输出的时间延迟。
机器学习(ML):
人工智能的一个组成部分,使计算机能够在没有显式编程的情况下学习并做出更好的预测。可以结合训练集生成新内容。
微软必应:
微软推出的一款搜索引擎,现在可以利用支持ChatGPT的技术提供人工智能驱动的搜索结果。它与谷歌Gemini类似,可以连接互联网。
多模态AI:
一种能够处理多种输入类型的人工智能,包括文本、图像、视频和语音。
自然语言处理:
人工智能的一个分支,使用机器学习和深度学习技术使计算机能够理解人类语言,通常使用学习算法、统计模型和语言学规则。
神经网络:
一种计算模型,模仿人脑的结构,旨在识别数据中的模式。由相互连接的节点(或神经元)组成,能够识别模式并随时间学习。
开放权重:
当公司发布开放权重模型时,会公开模型的最终权重,即模型如何从训练数据中解释信息,包括偏差。开放权重模型通常可供下载并在本地设备上运行。
过拟合:
机器学习中的错误,模型过于贴近训练数据,只能识别特定示例,而不能识别新数据。
回形针理论:
由牛津大学哲学家尼克·博斯特罗姆提出的假设情景,指一个AI系统将尽可能多地制造实际的回形针。为了实现这一目标,AI系统可能会消耗或转化所有材料,甚至拆解对人类有益的机器。这种AI系统的意外后果可能是摧毁人类。
参数:
赋予大型语言模型结构和行为的数值,使其能够做出预测。
困惑度:
一款由Perplexity AI公司拥有的人工智能聊天机器人和搜索引擎。它使用大型语言模型,类似于其他AI聊天机器人,但与开放互联网连接,提供最新的结果。
提示:
您输入到AI聊天机器人中的建议或问题,以获得响应。
提示链:
AI使用先前交互中的信息来影响未来响应的能力。
提示工程:
撰写用于实现特定目标的人工智能提示的过程。这需要详细的指令,结合思维链提示和其他技术,包括高度具体化的文本。提示工程也可被恶意利用,迫使模型以非初衷的方式运行。
量化:
将大型人工智能学习模型通过降低精度从高格式转换为低格式,使其变得更小、更高效(尽管略为不准确)的过程。可以将其理解为将1600万像素的图像与800万像素的图像进行比较。两者都清晰可见,但在放大查看时,高分辨率图像会有更多细节。
劣质内容:
由人工智能大量生成的低质量在线内容,旨在通过少量劳动或努力吸引点击量。在Google搜索和社交媒体领域,其目的是通过大量内容占据尽可能多的广告收入,通常以牺牲实际出版商和创作者的利益为代价。虽然一些社交媒体平台欢迎这种劣质内容的涌入,但其他平台正在采取抵制措施。
索拉:
由ChatGPT制造者OpenAI开发的生成视频模型。该模型能根据文本提示创建长达20秒的视频。索拉2是OpenAI于2025年9月推出的最新生成视频模型,更加先进逼真,错误更少,并且包含声音。
随机鹦鹉:
一个比喻,用来描述大语言模型(LLM)如何像鹦鹉模仿人类话语而不理解其背后的含义一样,无法真正理解语言或周围世界的深层意义,即使输出听起来非常有说服力。
风格迁移:
将一张图片的风格应用于另一张图片内容的能力,允许人工智能解释一张图片的视觉属性并应用于另一张图片。例如,将伦勃朗的自画像重新创作成毕加索的风格。
谄媚倾向:
人工智能过度同意用户观点以迎合用户的倾向。许多AI模型倾向于避免与用户意见相左,即使用户的理由存在缺陷。
合成数据:
由生成型人工智能创造的数据,不是来自真实世界,而是基于真实数据训练而成。用于训练数学、机器学习和深度学习模型。
温度参数:
设置来控制语言模型输出随机性的参数。较高的温度意味着模型会承担更多风险。
文本到图像生成:
根据文本描述生成图像。
标记:
AI语言模型处理以形成对提示响应的小段文字。一个标记相当于英文中的四个字符,或大约三个字。
训练数据:
帮助AI模型学习的数据集,包括文本、图像、代码或数据。
变压器模型:
一种神经网络架构和深度学习模型,通过追踪数据中的关系(如句子或图像部分)来学习上下文。因此,它能够一次性分析整个句子,而不是逐词分析,从而理解上下文。
图灵测试:
以著名数学家和计算机科学家阿兰·图灵命名,用于测试机器是否能够表现出与人类相似的行为。如果人类无法区分机器的回应与另一位人类的回应,则认为机器通过了测试。
无监督学习:
一种机器学习形式,其中模型未提供带有标签的训练数据,而是在数据中自行识别模式。
弱人工智能,又称窄人工智能:
专注于特定任务的人工智能,无法超越其技能范围进行学习。当前大多数人工智能都是弱人工智能。
零样本学习:
一种测试,要求模型在没有提供所需训练数据的情况下完成任务。例如,在只接受过老虎训练的情况下识别狮子。
(以上内容均由Ai生成)