Microsoft 刚刚展示了 AI 的未来,这对 Intel 和 AMD 来说是个好消息
快速阅读: 《杂色傻瓜》消息,英伟达在AI加速器市场占主导,但AI模型运行成本和能耗高。中国公司深度求索和微软研发出低成本高质量的小型AI模型,挑战英伟达地位。若AI模型能在CPU而非GPU上高效运行,英特尔和AMD有望受益,改变现有市场格局。
由**OpenAI**、**谷歌**和**Anthropic**等公司开发的最强大的生成式人工智能模型,需要昂贵且耗电的AI加速器才能在数据中心运行并生成结果。例如,**OpenAI**最近推出的**GPT-4.5**模型分阶段向用户开放,因为它需要大量的计算资源。今年早些时候,中国初创公司**深度求索(DeepSeek)**发布的AI模型颠覆了人们对AI基础设施市场的某些认知。与美国顶级AI公司的模型相比,**深度求索**成功研发出一个训练和运行成本更低、质量却相近的模型。
这一假设——即AI模型需要不断增加的计算能力,这是**英伟达(Nvidia)**股价看涨的基础——开始显得不那么稳固。另一个AI突破已经出现在PC、智能手机以及其他设备上。然而,能够在这些设备上运行的小型AI模型表现并不够强大。去年,**Tom’s Hardware**称微软的**Copilot+ PC AI功能**为“一个糟糕的玩笑”,而《纽约时报》在十月指出苹果的AI功能套件“仍然不完善”。
设备上的AI面临多个问题。第一个问题是生成式AI不具备确定性,这意味着相同的输入可能导致截然不同的输出。如果用于撰写博客文章,这没有问题,但若想让它在智能手机上可靠地执行特定任务,则不太理想。第一个问题可能永远无法彻底解决,但第二个问题或许可以解决。第二个问题是PC和智能手机的内存和计算能力有限,这为本地运行的AI模型的能力设定了硬性边界。
支持**ChatGPT**的AI模型在数据中心运行时需要海量的内存、计算能力和能源才能生成结果。显然,这对依靠电池供电的笔记本电脑而言是不可行的。微软近期推出了一款新型“**1位**”AI模型,小到能在CPU上运行,且仅需0.4GB内存。令人惊讶的是,这款新模型在性能上与占用更多内存的同类模型相当。更重要的是,这款模型在单一CPU上运行时,其输出速度可媲美人类阅读速度,这已经足够实用。
**改变游戏规则**
**英伟达(Nvidia)**在AI加速器市场占据主导地位,**AMD**(涨幅4.81%)或**英特尔(Intel)**(涨幅5.56%)几乎不可能追上。与**英伟达**竞争,**AMD**和**英特尔**注定会远远落后于市场领先者。然而,**深度求索(DeepSeek)**和微软的突破带来了可能性,即AI推理(即运行已训练的AI模型以生成结果的过程)最终可以在数据中心和设备上的CPU上运行而不牺牲质量。
如果能去除**英伟达**昂贵的GPU,AI模型的运行成本会大幅降低;如果更强大的模型能够容纳进PC或智能手机的内存空间,这将对用户更具吸引力。**英特尔(Intel)**和**AMD**均销售集成AI加速器的服务器和PC CPU。一些**AMD EPYC**服务器CPU在某些AI推理任务中表现出色,而**英特尔(Intel)**的**Granite Rapids**服务器CPU可以运行700亿参数的模型。在PC端,**AMD**和**英特尔**如今均在其CPU中加入专用AI处理器。
**英伟达(Nvidia)**似乎无懈可击,如果假设AI基础设施市场仍集中在超强大的数据中心GPU上,那它确实如此。然而,如果强大的AI模型不再需要它的最强大的GPU来运行,该公司就容易受到攻击。如果建造一个以CPU而非GPU为主的AI数据中心更有经济意义,这将会发生。微软的新AI模型朝着这个方向迈进了一步。
在数据中心内,GPU到CPU的支出可能会开始转移,这对**AMD**和**英特尔(Intel)**而言是个利好消息。在PC市场,更强大且实用的AI功能可能会推动PC需求,助力PC市场摆脱后疫情时期的低迷。更强大的硬件是一方面原因,但同样关键的是那些能够适应更小内存容量的强大AI模型,如微软的最新成果。
除非游戏规则改变,否则**英伟达(Nvidia)**在AI领域不会失利。随着微软及其他方努力降低运行强大AI模型所需的计算和内存成本,看来游戏正在转变。在AI加速器市场长期落后于**英伟达(Nvidia)**的**英特尔(Intel)**和**AMD**,可能成为AI推理转向CPU的大赢家。
(以上内容均由Ai生成)