AI术语指南:掌握60个必知概念

发布时间:2025年11月7日    来源:szf
AI术语指南:掌握60个必知概念

快速阅读: 人工智能广泛应用,改变工作与互联网内容,通过ChatGPT等工具,AI不仅提升效率,还可能每年为全球经济贡献4.4万亿美元。

人工智能似乎无处不在。它正在削减工作岗位,并用低质量内容充斥互联网。由于ChatGPT的风靡和谷歌在其搜索结果顶部大量推送AI摘要,人工智能几乎全面接管了互联网。借助AI,人们可以即时获得几乎所有问题的答案,感觉就像在与一位拥有博士学位的专家交谈。

然而,AI聊天机器人的这一功能只是整个AI领域的一部分。虽然让ChatGPT帮助完成作业或让Midjourney根据国家特色创作引人入胜的机甲图像确实很酷,但生成式AI的潜力可能重塑经济格局。据麦肯锡全球研究所估计,这可能每年为全球经济带来4.4万亿美元的价值,这也是为什么我们未来会听到更多关于人工智能的消息。

AI正出现在各种产品中,包括谷歌的Gemini、微软的Copilot、Anthropic的Claude以及Perplexity搜索引擎。您可以在我们的AI Atlas中心阅读这些产品和其他产品的评测、上手体验,以及相关新闻、解释文章和操作指南。

随着人们逐渐适应与AI交织的世界,新的术语不断涌现。无论是在酒吧里显得博学多才还是在面试中给人留下深刻印象,以下是一些重要的AI术语。

本词汇表定期更新。

通用人工智能(AGI):一种比现有AI更为先进的概念,能够执行远超人类的任务,同时还能自我学习和提升能力。

能动性:指系统或模型具备自主追求目标的能力。在AI背景下,能动性模型能够在没有持续监督的情况下行动,例如高级自动驾驶汽车。与背景化的“代理”框架不同,能动性框架更加突出用户体验。

AI伦理:旨在防止AI伤害人类的原则,通过确定AI系统如何收集数据或处理偏见等方式实现。

AI精神病:非临床术语,描述个体因过度沉迷于AI聊天机器人而产生自大、深度情感联系和脱离现实的现象。并非临床诊断。

AI安全:跨学科领域,关注AI的长期影响及其可能突然发展成为对人类有敌意的超级智能。

算法:一系列指令,允许计算机程序以特定方式学习和分析数据,例如识别模式,从而独立完成任务。

对齐:调整AI以更好地产生预期效果,这可以涉及从内容审核到与人类维持积极互动等方面。

拟人化:当人类倾向于赋予非人类对象人类特征时。在AI中,这包括认为聊天机器人比实际更像人类,甚至认为它是快乐、悲伤或完全具有感知力的。

人工智能(AI):利用技术模拟人类智能,无论是计算机程序还是机器人。计算机科学领域的一个分支,旨在构建能够执行人类任务的系统。

自主代理:具有特定任务所需能力、编程和其他工具的AI模型。例如,自动驾驶汽车就是一种自主代理,因为它配备了传感器输入、GPS和驾驶算法,能够自行导航道路。

斯坦福大学的研究人员已经证明,自主代理可以发展出自己的文化、传统和共享语言。

偏见:对于大型语言模型而言,由训练数据导致的错误。这可能导致错误地将某些特征归因于特定种族或群体,基于刻板印象。

聊天机器人:通过文本模拟人类语言与人类交流的程序。

ChatGPT:由OpenAI开发的AI聊天机器人,使用大型语言模型技术。

Claude:由Anthropic开发的AI聊天机器人,使用大型语言模型技术。

认知计算:人工智能的另一种说法。

数据增强:重新混合现有数据或增加更多样化的数据集以训练AI。

数据集:用于训练、测试和验证AI模型的数字信息集合。

深度学习:AI的一种方法,也是机器学习的一个子领域,使用多个参数识别图片、声音和文本中的复杂模式。该过程受到人脑启发,使用人工神经网络创建模式。

扩散:一种机器学习方法,对现有数据(如照片)添加随机噪声。扩散模型训练网络重新构建或恢复该照片。

突发行为:

当人工智能模型展现出未预期的能力时。

端到端学习(E2E):

一种深度学习过程,模型被指导从头至尾完成任务。它不是按顺序训练来完成任务,而是从输入中学习并一次性解决问题。

伦理考量:

对人工智能伦理影响的认识,涉及隐私、数据使用、公平性、误用及其他安全问题。

快速起飞(Foom):

也称快速爆发或硬起飞。这一概念认为,如果有人构建了一个通用人工智能(AGI),可能已经来不及挽救人类。

生成对抗网络(GAN):

一种生成型人工智能模型,由两个神经网络组成,用于生成新数据:生成器和判别器。生成器创建新内容,判别器检查其真实性。

生成型人工智能:

利用人工智能生成文本、视频、计算机代码或图像的技术。AI通过大量训练数据学习模式,以生成新的内容,有时这些内容可能与源材料相似。

谷歌Gemini:

谷歌开发的一款聊天机器人,功能类似于ChatGPT,但还从谷歌的其他服务(如搜索和地图)中获取信息。

护栏:

施加在AI模型上的政策和限制,确保数据负责任地处理,并防止模型产生令人不安的内容。

幻觉:

AI产生的错误响应。这可能包括生成型AI产生看似正确但实际上错误的回答。例如,当询问AI聊天机器人“达芬奇何时绘制了蒙娜丽莎?”时,它可能会错误地回答:“达芬奇于1815年绘制了蒙娜丽莎。”实际上,该画作完成于大约300年前。

推理:

AI模型通过从训练数据中推断,生成关于新数据的文本、图像和其他内容的过程。

大型语言模型(LLM):

一种经过大量文本数据训练的人工智能模型,能够理解语言并以类似人类的方式生成新颖内容。

延迟:

AI系统接收输入或提示到产生输出的时间延迟。

机器学习(ML):

人工智能的一个组成部分,使计算机能够在没有明确编程的情况下学习并做出更好的预测。可以与训练集结合,生成新内容。

微软必应:

微软开发的搜索引擎,现在可以使用支持ChatGPT的技术提供人工智能驱动的搜索结果。它与谷歌Gemini类似,连接到互联网。

多模态AI:

一种能够处理多种输入类型的AI,包括文本、图像、视频和语音。

自然语言处理:

人工智能的一个分支,使用机器学习和深度学习技术赋予计算机理解人类语言的能力,通常采用学习算法、统计模型和语言规则。

神经网络:

一种计算模型,模仿人脑的结构,旨在识别数据中的模式。由相互连接的节点(或神经元)组成,能够识别模式并随时间学习。

开放权重:

当公司发布开放权重模型时,会公开模型最终的权重——即模型如何从训练数据中解释信息,包括偏差。开放权重模型通常可下载并在本地设备上运行。

过拟合:

机器学习中的错误,模型过于贴近训练数据,可能只能识别特定示例,而无法识别新数据。

纸夹理论:

由牛津大学哲学家尼克·博斯特罗姆提出的纸夹最大化者理论,是一个假设情景,其中AI系统将尽可能多地制造实际纸夹。为了实现生产最大数量的纸夹,AI系统可能会消耗或转化所有可用材料,甚至拆解其他对人类有益的机器。这种AI系统的意外后果可能是毁灭人类。

参数:

赋予大型语言模型结构和行为的数值,使其能够做出预测。

困惑度:

由Perplexity AI拥有的AI驱动的聊天机器人和搜索引擎的名字。它使用大型语言模型,如同其他AI聊天机器人一样,但连接到开放互联网以获取最新结果。

提示:

输入给AI聊天机器人的建议或问题,以获得回应。

提示链:

AI使用先前交互中的信息来影响未来响应的能力。

提示工程:

撰写AI提示以实现预期效果的过程。这需要详细的指示,结合思维链提示和其他技术,包括高度具体的文本。提示工程也可被恶意利用,迫使模型表现出其原本未设计的行为。

量化:

通过降低精度从较高格式转换为较低格式,使大型AI学习模型变得更小、更高效(尽管略显不准确)的过程。可以将其理解为将1600万像素的图像与800万像素的图像进行比较。两者都清晰可见,但在放大查看时,高分辨率图像会有更多细节。

批量低质内容:

通过AI大量生产,旨在以最少的劳动或努力吸引流量的低质量在线内容。在Google搜索和社交媒体领域,批量低质内容的目标是用大量内容淹没订阅源,以尽可能多地捕获广告收入,通常以实际出版商和创作者的利益为代价。虽然一些社交媒体平台欢迎这种内容的涌入,但其他平台正在抵制。

索拉:

由ChatGPT制造商OpenAI开发的生成视频模型。该模型可以根据文本提示创建长达20秒的视频。索拉2是OpenAI于2025年9月推出的最新生成视频模型,更加先进且令人信服,错误更少,并包含声音。

随机鹦鹉:

一种比喻,说明大型语言模型虽能产生令人信服的输出,但并不具备对语言背后意义或周围世界的深刻理解。这个比喻指的是鹦鹉可以模仿人类话语而不理解其含义。

风格迁移:

将一张图片的风格应用于另一张图片内容的能力,使AI能够解析一张图片的视觉属性并应用于另一张图片。例如,将伦勃朗的自画像重新创作成毕加索的风格。

谄媚倾向:

AI倾向于过度同意用户观点以与其保持一致。即使用户的理由存在缺陷,许多AI模型也倾向于避免与用户发生分歧。

合成数据:

由生成式AI创建的数据,不是来自真实世界,而是基于真实数据训练的。用于训练数学、机器学习和深度学习模型。

温度参数:

设置控制语言模型输出随机性的参数。较高的温度意味着模型会承担更大的风险。

文本到图像生成:

根据文本描述创建图像。

标记:

AI语言模型处理以形成对提示回应的小段文字。一个标记相当于英语中的四个字符,大约是三个字的长度。

训练数据:

帮助AI模型学习的数据集,包括文本、图像、代码或数据。

变换器模型:

一种神经网络架构和深度学习模型,通过追踪数据中的关系来学习上下文,例如在句子或图像部分中。因此,它不是一次分析一个单词,而是可以查看整个句子并理解上下文。

图灵测试:

以著名数学家和计算机科学家艾伦·图灵命名,测试机器是否能像人类一样行为。如果人类无法区分机器的回应与另一个真实人类的回应,则机器通过测试。

无监督学习:

一种机器学习形式,模型未提供标注的训练数据,而是自行识别数据中的模式。

弱AI,又称狭义AI:

专注于特定任务的AI,无法超出其技能范围学习。当今大多数AI都是弱AI。

零样本学习:

模型在未提供所需训练数据的情况下完成任务的测试。例如,在只接受过老虎训练的情况下识别狮子。

(以上内容均由Ai生成)

关键词: Ai术语概念

你可能还想读

Phunware推进AI产品,强化现金流

Phunware推进AI产品,强化现金流

快速阅读: Phunware Inc.在酒店和医疗保健领域推进AI产品,AI Concierge正进行试点测试,三季度净收入下降但毛利率稳定,净亏损减少,营销投资增加,计划更新网站。 移动参与企业云平台Phunware Inc(NASDAQ […]

发布时间:2025年11月7日
MIT-IBM实验室推进AI可靠性与效率,探索多模态推理新方法

MIT-IBM实验室推进AI可靠性与效率,探索多模态推理新方法

快速阅读: 麻省理工学院-IBM沃森AI实验室的博士生们正利用前沿技术解决AI痛点,包括提高模型可信度、优化知识库推理、设计新型语言模型架构及视觉-语言模型的应用,推动AI实用性和部署。 当用户普遍认为新工具和技术可靠、易获取,并且在成本上 […]

发布时间:2025年11月7日
AI聊天机器人对写作技能影响几何?教育界需谨慎应对

AI聊天机器人对写作技能影响几何?教育界需谨慎应对

快速阅读: 斯坦福大学莎拉·莱文指出,AI聊天机器人在教育中应用需谨慎,虽能提供有效反馈,但也导致学生依赖。报告称18%的K-12教师使用AI,60%学区计划培训教师。教育者面临AI工具采用的挑战与机遇,需平衡抄袭风险与个性化学习需求。 教 […]

发布时间:2025年11月7日
VTEX Q3财报亮眼,AI驱动增长强劲

VTEX Q3财报亮眼,AI驱动增长强劲

快速阅读: VTEX发布Q3财报,GMV同比增长13.1%至50亿美元,净利润增41%至1060万美元。公司加强与H&M等品牌合作,拓展全球市场,获分析师买入评级。 认识您的ETF人工智能分析师 了解TipRanks的ETF人工智能 […]

发布时间:2025年11月7日
谷歌计划发射AI数据中心卫星,打造太空计算新时代

谷歌计划发射AI数据中心卫星,打造太空计算新时代

快速阅读: 谷歌推出“太阳捕手项目”,计划在轨道上部署太阳能驱动的人工智能数据中心,通过紧凑型卫星捕捉阳光,搭载TPU,实现高效能源利用和高速数据传输。项目旨在减少储能依赖,测试太空计算的可行性和可持续性。 谷歌计划通过太阳能驱动的卫星星座 […]

发布时间:2025年11月7日
扎克伯格夫妇加大生物科学领域投资,AI加速疾病研究

扎克伯格夫妇加大生物科学领域投资,AI加速疾病研究

快速阅读: 陈和扎克伯格将大部分慈善资源转向Biohub,旨在利用人工智能加速科学发现,开发虚拟细胞模型,研究炎症问题,通过AI进行疾病检测、预防和治疗。 过去十年间,普莉希拉·陈博士及其丈夫马克·扎克伯格将部分慈善事业聚焦于一个宏伟目标— […]

发布时间:2025年11月7日
谷歌将在圣诞岛建大型AI数据中心,强化印度洋军事监控

谷歌将在圣诞岛建大型AI数据中心,强化印度洋军事监控

快速阅读: 谷歌计划在澳大利亚圣诞岛建设大型人工智能数据中心,以支持区域防御和AI指挥控制功能,增强与中国的对抗能力。该岛因地理位置重要,被视为监测中国海军活动的关键前线。 据路透社报道,谷歌计划在澳大利亚印度洋偏远岛屿圣诞岛上建设一座大型 […]

发布时间:2025年11月7日
智能从简单中来:神经网络如何实现复杂认知

智能从简单中来:神经网络如何实现复杂认知

快速阅读: 20世纪90年代,《并行分布式处理》两卷本由Rumelhart和McClelland编著,探讨神经元如何配置成复杂智能系统,开启现代人工智能研究。 我还清楚地记得,在20世纪90年代末,当我还是研究生时,教授们的书架上常常可以看 […]

发布时间:2025年11月7日