从“赶上”到“抓住我们”:Google 如何悄悄地在企业 AI 领域占据领先地位
快速阅读: 据《VentureBeat 公司》称,谷歌在Google Cloud Next 2025上展示了其在人工智能领域的强劲复苏,推出了领先的Gemini 2.5模型和强大的TPU硬件,强调一体化平台和企业价值。尽管竞争激烈,谷歌通过其端到端能力脱颖而出,赢得企业青睐,其云业务快速增长。
加入我们的每日和每周新闻简报,获取有关行业领先人工智能报道的最新更新和独家内容。
一年前,围绕谷歌和企业人工智能的故事似乎停滞不前,尽管谷歌发明了像Transformer这样的核心技术。这家科技巨头似乎一直处于防守状态,被OpenAI病毒式的成功、Anthropic在编码方面的实力以及微软的企业推动所掩盖。但是上周在拉斯维加斯举行的Google Cloud Next 2025上,见证了一幕:一个自信的谷歌,拥有领先的基准模型、强大的基础设施和一致的企业战略,宣布了一个惊人的转变。在与谷歌高级技术官Will Grannis等高级管理人员的闭门分析师会上,一位分析师总结道。他说,这感觉像是谷歌从“追赶”到“超越我们”的关键时刻。这种认为谷歌不仅赶上了而且甚至超过了OpenAI和微软在企业人工智能竞赛中的领先地位的情绪在整个活动中占据主导地位。而且这不仅仅是谷歌的营销策略。证据表明,谷歌在过去的一年中进行了集中执行,将其深厚的技术资产转化为一个高性能、集成的平台,迅速赢得了企业决策者的青睐。
从拥有世界上运行在超高效定制硅上的最强大的人工智能模型,到一个蓬勃发展的为现实商业问题设计的AI代理生态系统,谷歌正在有力地证明它从未真正迷失——但它的失误掩盖了一个深层次的基础开发阶段。但是上周在拉斯维加斯举行的Google Cloud Next 2025上,见证了一幕:一个自信的谷歌,拥有领先的基准模型、强大的基础设施和一致的企业战略,宣布了一个惊人的转变。在与谷歌高级技术官Will Grannis等高级管理人员的闭门分析师会上,一位分析师总结道。他说,这感觉像是谷歌从“追赶”到“超越我们”的关键时刻。
质疑的阴影:承认最近的历史
如果不承认最近的历史,就无法充分理解当前的势头。谷歌是Transformer架构的发源地,这一架构引发了现代大型语言模型(LLMs)的革命。谷歌还十年前就开始投资于专门的AI硬件(TPUs),如今它们正在推动行业领先的效率。然而,两年半前,它莫名其妙地发现自己陷入了防守状态。OpenAI的ChatGPT以令人惊叹的速度吸引了公众的想象力和企业兴趣,并成为历史上增长最快的应用程序。竞争对手如Anthropic在编码等领域开辟了小众市场。谷歌自己的公开步骤有时看起来犹豫不决或有缺陷。2023年的Bard演示失误和后来关于其图像生成器产生历史不准确描述的争议助长了一种公司可能受到内部官僚作风或过度校准对齐影响的说法。感觉谷歌迷失了方向:人工智能的失误似乎符合一种模式,首先由谷歌在云计算竞争中的初始缓慢表现所展示,在市场份额上远远落后于亚马逊和微软。谷歌云首席技术官Will Grannis承认了早期关于谷歌云是否能在长期内站稳脚跟的问题。“这甚至是一个真实的东西吗?”他回忆起人们问他的话。问题仍然存在:谷歌能否将其不可否认的研究卓越性和基础设施规模转化为企业人工智能主导地位?
转折点:有意识地决定领导
然而,在幕后,一场转变正在进行,这是最高层有意识地决定重新夺回领导地位的结果。Mat Velloso,Google DeepMind的AI开发者平台产品副总裁,在2024年2月离开微软加入谷歌后,描述了他在加入谷歌时感受到的一个关键时刻。“当我来到谷歌时,我和Sundar(皮查伊)交谈过,也和这里的几位领导人谈过,我觉得那是他们决定的时候了,好吧,这个[生成式人工智能]是整个行业显然关心的事情。让我们让它发生,”Velloso在上周Next期间接受VentureBeat采访时分享道。
这次新的努力并没有受到一些外部人士担心的“人才流失”的阻碍。事实上,公司在2024年初悄悄加倍执行力度——这一年以大力招聘、内部整合和客户吸引力为标志。虽然竞争对手进行了轰动性的招聘,但谷歌保留了其核心人工智能领导团队,包括DeepMind首席执行官Demis Hassabis和Google Cloud首席执行官Thomas Kurian,提供了稳定性和深厚的专业知识。此外,人才开始流向谷歌的专注任务。例如,Logan Kilpatrick从OpenAI回到谷歌,被在公司内创建基础人工智能的机会所吸引。他加入了Velloso,称其为“从无到有的经历”,负责从零开始为Gemini建立开发者牵引力。“那天我就像团队的一员……我们在这个平台上实际上没有用户,也没有收入。此刻没有人对Gemini感兴趣,”Kilpatrick回忆起起点时说道。熟悉内部动态的人士还称赞了Josh Woodward等领导者的贡献,他帮助启动了AI Studio,现在领导Gemini应用和实验室。最近,Noam Shazeer作为技术联合负责人回到了谷歌,他是2024年底关键Gemini项目的原始“注意力就是你所需要的”Transformer论文的主要合著者之一。这种结合这些招聘、研究突破、对其数据库技术的改进以及整体加强的企业关注的努力已经开始取得成果。这些累积的进步,加上CTO Will Grannis所说的“数百个精细平台元素”,为Next ’25的公告奠定了基础,并巩固了谷歌的复兴叙事。
支柱1:Gemini 2.5和思考模型的时代
确实,一个领先的企业口号已经成为“这不仅仅关乎模型”。毕竟,顶级模型之间的性能差距已经大幅缩小,技术内幕人士承认真正的智能来自于围绕模型包装的技术,而不仅仅是模型本身——例如,允许模型使用工具并探索周围网络的代理技术。尽管如此,拥有明显表现最佳的LLM是一项重要的成就——并且是一个强有力的验证者,表明拥有该模型的公司具有优越的研究能力和最高效的底层技术架构。
在Next ’25前几天发布的Gemini 2.5 Pro,谷歌明确抓住了这一头衔。它迅速登上了独立Chatbot Arena排行榜的榜首,显著超过OpenAI最新的GPT-4o变体,并在诸如“人类的最后一场考试”等 notoriously困难的推理基准中表现出色。正如皮查伊在主旨演讲中所说,“这是我们最聪明的人工智能模型。它是世界上最优秀的模型。”该模型在一个月内推动了Gemini使用量增加了80%,他单独发推。第一次,谷歌的Gemini需求火热。
正如我之前详细描述的那样,除了Gemini 2.5 Pro的基本智能外,给我留下深刻印象的是它的可验证推理能力。谷歌已经开发出一种“思考”能力,允许模型在最终确定响应之前进行多步推理、规划,甚至自我反思。结构化的、连贯的思维链(CoT)——使用编号步骤和子项目符号——避免了其他来自DeepSeek或OpenAI的模型输出的杂乱无章或不透明的特点。对于评估关键任务输出的技术团队来说,这种透明性允许前所未有的验证、纠正和重定向。但对企业用户来说更重要的是,Gemini 2.5 Pro还在编码方面大幅缩小了差距,这是生成式人工智能最大的应用领域之一。
在接受VentureBeat采访时,领先的零售商Wayfair的首席技术官Fiona Tan表示,在初步测试后,该公司发现Gemini“进步很大”,现在“相当可比”于Anthropic的Claude 3.7 Sonnet,此前许多开发者的首选。谷歌还向模型添加了一个巨大的1百万令牌上下文范围,使模型能够跨整个代码库或冗长的文档进行推理,远远超过OpenAI或Anthropic模型的能力。(OpenAI本周回应了具有类似大上下文范围的模型,尽管基准测试表明Gemini 2.5 Pro在整体推理方面仍保持优势)。这种优势使得复杂、多文件的软件工程任务成为可能。
与Pro相辅相成的是Next ’25上宣布的Gemini 2.5 Flash,昨天刚刚发布。同样是一种“思考”模型,Flash优化了低延迟和成本效益。你可以控制模型推理的程度,并根据预算平衡性能。这种分层方法进一步反映了谷歌高管倡导的“性价比”策略。Velloso展示了图表,显示谷歌模型在智能光谱上提供最佳性价比。“如果我们一年前进行这个对话……我将无话可说,”Velloso承认,强调了快速的转变。“而现在,无论你需要什么模型,无论大小,如果不是谷歌,你就是在赔钱。”
这些图表已更新以反映本周OpenAI最新模型的发布。见下图:
对于任何给定的价格,谷歌的模型提供的智能超过90%的团队。
来源:Pierre Bongrand。
Wayfair的Tan还提到2.5 Pro的延迟改进令人欣喜:“Gemini 2.5响应更快,使其适用于‘更多面向客户的特性’,”她说,她表示以前其他模型从未有过这种情况。Gemini可能会成为Wayfair首次用于这些客户互动的模型,她说。
Gemini家族的能力扩展到多模态,无缝集成到Google的其他领先模型中,如Imagen 3(图像生成)、Veo 2(视频生成)、Chirp 3(音频)和新发布的Lyria(文本到音乐),所有这些都可通过Google为企业用户提供的Vertex平台访问。Google是唯一一家在其平台上提供自身跨所有模态生成媒体模型的公司。微软、AWS和OpenAI必须与其他公司合作才能做到这一点。
支柱2:基础设施实力——引擎盖下的动力
能够快速迭代并高效服务这些强大模型的能力源于谷歌无可比拟的基础设施,经过数十年运行全球规模的服务磨练而成。其中核心是张量处理单元(TPU)。在Next ’25上,谷歌推出了Ironwood,这是第七代TPU,专为推理和“思考模型”的需求而设计。规模巨大,专为苛刻的人工智能工作负载而定制:Ironwood机柜装有超过9,000个液冷芯片,声称提供42.5 exaflops的计算能力。谷歌机器学习系统副总裁Amin Vahdat在Next舞台上表示,这是“当前世界排名第一的超级计算机的24倍以上”。
谷歌称,Ironwood 的性能功耗比相比前代TPU Trillium提升了2倍。这对企业客户尤为重要,因为越来越多的企业表示能源成本和可用性正在制约大规模人工智能的部署。谷歌云首席技术官Will Grannis强调了这种进步的连续性。他说,客户购买的是谷歌的技术路线图,而不仅仅是其技术。谷歌的地位促使它早在当前生成式人工智能热潮兴起之前就开发了定制化的优化硬件。尽管Meta在消费者规模上与谷歌相当,但其他竞争对手缺乏这种长达数十年、垂直整合的人工智能硬件开发的内在驱动力。现在这些TPU投资正在取得回报,因为它们不仅提高了自家应用的效率,还让谷歌能够以更好的“每美元智能”向其他用户提供Gemini。
你可能会问,为什么谷歌的竞争对手不能从Nvidia购买高效的处理器?确实,Nvidia的GPU处理器在大型语言模型(LLMs)的预训练过程中占据主导地位。但市场需求推高了这些GPU的价格,Nvidia从中获得了丰厚的利润,这将显著的成本转嫁给了使用其芯片的用户。此外,尽管目前AI芯片的主要用途是预训练,但随着企业实际部署这些应用程序,“推理”环节的重要性日益增加,在大规模工作负载方面,TPU被认为比GPU更高效。
当你询问谷歌高管其在人工智能领域的核心技术优势时,他们通常会归结到TPU上,认为这是最重要的。负责管理谷歌计算基础设施的副总裁John Lohmeyer毫不含糊地说:“TPUs无疑是我们在做的事情中高度差异化的一部分……OpenAI不具备这些能力。”
值得注意的是,谷歌并不是孤立地展示TPU,而是将其作为更广泛、更复杂的企业人工智能架构的一部分。对于技术内幕人士来说,顶级性能依赖于集成越来越专业的技术突破。Next期间详细介绍了许多更新。Vahdat将其描述为‘超级计算机系统’,集成了硬件(TPUs、最新的Nvidia GPU如Blackwell和即将推出的Vera Rubin、先进的存储如Hyperdisk Exapools、Anywhere Cache和Rapid Storage)以及统一的软件堆栈。该软件包括Cluster Director用于管理加速器、Pathways(Gemini的分布式运行时,已向客户开放),并为TPUs带来vLLM等优化,使得那些原本使用Nvidia/PyTorch堆栈的工作负载更容易迁移。
Vahdat认为,正是这个集成系统使得Gemini 2.0 Flash相比GPT-4o实现了24倍更高的“每美元智能”。谷歌还在扩展其物理基础设施的覆盖范围。Cloud WAN使谷歌低延迟的2百万英里私人光纤网络可供企业使用,承诺最多可提高40%的性能,并降低40%的总拥有成本(TCO)相比客户自建网络。此外,谷歌分布式云(GDC)允许Gemini和Nvidia硬件(通过戴尔合作)在主权、本地或甚至完全隔离的环境中运行——这一能力得到了Nvidia首席执行官黄仁勋的高度评价,他认为这对于将最先进的AI引入受监管行业和国家至关重要。在Next期间,黄仁勋称谷歌的基础设施是世界上最好的:“没有哪家公司在每一层计算上都比得过谷歌和谷歌云。”
支柱3:一体化全栈——连接点
谷歌的战略优势随着这些模型和基础设施组件如何编织成一个连贯的平台而增长。与竞争对手不同,后者常常依靠合作伙伴关系来填补空白,谷歌几乎控制着每一层,从而实现更紧密的集成和更快的创新周期。那么,如果像微软这样的竞争对手可以简单地与OpenAI合作以匹配基础设施广度和大型语言模型(LLMs)的能力,这种集成为什么重要呢?我与谷歌员工交谈后得知,这有着巨大的差异,并且他们提供了相关的故事来支持这一点。例如,谷歌企业数据库BigQuery的重大改进。该数据库现在提供了知识图谱,使大型语言模型(LLMs)能够更高效地搜索数据,而且现在拥有比竞争对手Snowflake和Databricks多五倍以上的客户,《VentureBeat》昨天报道了这一消息。谷歌云数据分析产品主管Yasmeen Ahmad表示,这些巨大的改进之所以可能,是因为谷歌的数据团队与DeepMind团队密切合作。他们解决了许多难以解决的用例,这使得数据库根据常见查询,在获取正确数据方面比最接近的竞争对手准确率提高了50%,至少根据谷歌内部测试的结果,Ahmad在接受《VentureBeat》采访时说道。
Ahmad说,这种跨整个堆栈的深度集成正是谷歌如何“超越”行业的例子。这种内部一致性与微软的“亦敌亦友”动态形成了鲜明对比。虽然微软与OpenAI合作在Azure云上分发其模型,但微软也在构建自己的模型。谷歌负责领导AI开发者项目的高管Mat Velloso在试图协调Windows Copilot计划与OpenAI模型供应时感到沮丧,随后离开了微软。“你怎么能与实际上竞争你的公司分享你的产品计划……这整个事情都是矛盾的,”他回忆道。“这里我坐在与构建模型的人旁边。”
这种集成体现了谷歌领导者认为的核心优势:其独特的能力在于连接从基础研究和模型构建到“星球级”应用部署和基础设施设计的整个光谱的深厚专业知识。Vertex AI作为谷歌企业人工智能工作的中枢神经系统。而且这种集成不仅仅限于谷歌自身的解决方案。Vertex的Model Garden提供了超过200个经过精心挑选的模型,包括谷歌的、Meta的Llama 4以及众多开源选项。Vertex提供了调优、评估(包括AI驱动的Evals,Grannis强调这是关键加速器)、部署和监控工具。其接地能力利用内部AI就绪数据库并与外部向量数据库兼容。再加上谷歌的新功能,通过谷歌搜索(世界上最强大的搜索引擎)来接地模型。集成延伸至Google Workspace。Next’25期间宣布的新功能,如Sheets中的“帮助我分析”(是的,Sheets现在有了“=AI”公式)、Docs中的音频概览和Workspace流程,进一步将Gemini的能力嵌入日常工作中,为谷歌创造了强大的反馈循环,以便改进用户体验。
在推动其一体化堆栈的同时,谷歌还在生态系统中有选择地倡导开放。在推动Kubernetes采用之后,它现在正在推广JAX用于AI框架,同时支持现有的标准(MCP)并提出开放协议用于代理通信(A2A)。谷歌还通过Agentspace(谷歌新推出的统一界面,供员工查找和使用代理)提供了数百个外部平台的连接器。这个枢纽概念非常有吸引力。Agentspace的演示(从51:40开始)展示了这一点。谷歌为用户提供预制代理,或者员工或开发人员可以使用无代码AI能力自行构建代理。他们还可以通过A2A连接器从外部拉取代理。它可以集成到Chrome浏览器中以实现无缝访问。
支柱4:专注于企业价值和代理生态系统
也许最显著的变化是谷歌更加专注于解决具体的企业问题,特别是通过人工智能代理的视角。谷歌云首席执行官Thomas Kurian概述了客户选择谷歌的三个原因:AI优化平台、开放多云方法允许连接现有IT环境,以及针对安全、主权和合规性的企业就绪重点。代理是这一战略的关键。除了AgentSpace之外,还包括:
构建模块:开源的代理开发工具包(ADK),在Next期间发布后已经引起了开发者的极大兴趣。ADK简化了多代理系统的创建,而提议的代理间通信(A2A)协议旨在确保互操作性,允许使用不同工具构建的代理(Gemini ADK、LangGraph、CrewAI等)进行协作。Google的Grannis表示,A2A预见到了未来可能有数十万互动代理所带来的规模和安全挑战。这个A2A协议非常重要。
本周在接受《VentureBeat》的背景采访中,一家主要美国零售商的首席信息安全官(由于涉及安全问题的敏感性,要求匿名)表示,A2A协议很有帮助,因为这家零售商正在寻找一种区分真人和使用代理购买产品的机器人方案。这家零售商希望避免向倒卖机器人出售商品,而通过A2A,更容易与代理协商验证其所有者身份。
专用代理:谷歌展示了集成到AgentSpace中的专家代理(如NotebookLM、创意生成、深度研究)并强调了五个获得关注的关键类别:客户服务代理(支持Reddit问答、Verizon客服助手、Wendy’s得来速)、创意代理(由WPP、Brandtech、Sphere使用)、数据代理(推动Mattel、Spotify、Bayer的见解)、编码代理(Gemini代码辅助)和安全代理(集成到新的Google统一安全平台)。
这种全面的代理策略似乎正在引起共鸣。上周与另外三家大型企业的高管进行了匿名交流,也反映了对谷歌代理策略的热情。谷歌云首席运营官Francis DeSouza在一次采访中确认:“每次对话都包含人工智能。具体来说,每次对话都包含代理。”
德勤高管Kevin Laughridge是谷歌AI产品的大量使用者,也是这些产品的分销商,他将代理市场描述为一场“土地争夺战”,其中谷歌早期在协议和一体化平台方面的举措提供了显著优势。“谁先迈出第一步并且获得最多真正交付价值的代理——谁将在这一竞争中获胜,”Laughridge在一次采访中说道。他表示谷歌的进步令人惊叹,指出仅一年前德勤自己构建的定制代理现在可以使用AgentSpace“开箱即用”地复制。德勤自己正在平台上构建100个代理,目标是中后台职能如财务、风险和工程,他说。
客户的证明点正在积累。在Next期间,谷歌引用了“500多个生产中的客户”使用生成式人工智能,而一年前只有“几十个原型”。如果一年前微软被认为遥遥领先,那现在看起来不再那么明显了。鉴于各方的公关较量,很难确切地说谁现在处于领先地位。指标各不相同。谷歌的500个数字与微软宣传的400个案例研究并不直接可比。而且,如果谷歌通过其应用程序分发AI很重要,那么微软通过其365产品分发Copilot同样令人印象深刻。两者现在都通过API触及数百万开发人员。
[编辑注:理解企业如何在这场“代理土地争夺战”中导航,并成功部署这些复杂的AI解决方案,将是6月24日至25日在旧金山举行的VentureBeat Transform活动讨论的核心。]
但谷歌的进展例子比比皆是:
温迪(Wendy’s):在短短一年内将其AI得来速系统部署到数千个地点,改善了员工体验和订单准确性。谷歌云首席技术官Will Grannis指出,该AI系统能够理解俚语并过滤掉背景噪音,大大减少了实时客户互动的压力。这让员工可以专注于食物准备和质量——Grannis称之为“AI简化现实世界运营的一个很好的例子”。
Salesforce:宣布重大扩展,使其平台首次可以在谷歌云上运行(除了AWS),并引用谷歌帮助他们“创新和优化”的能力。
霍尼韦尔与Intuit:之前分别与微软和AWS密切相关的公司,现在正与谷歌云在AI项目上合作。
主要银行(德意志银行、富国银行):利用代理和Gemini进行研究、分析,并现代化客户服务。
零售商(沃尔玛、Mercado Libre、劳氏公司):使用搜索、代理和数据平台。
这种企业吸引力推动了谷歌云的整体增长,过去三个季度超过了AWS和Azure。谷歌云在2024年达到了440亿美元的年度化运行率,而2018年仅为50亿美元。
在竞争激烈的水域中航行
谷歌的崛起并不意味着竞争对手停滞不前。本周OpenAI发布的GPT-4.1(专注于编码和长上下文)和o系列(多模态推理、工具使用)展示了OpenAI的持续创新。此外,OpenAI在GPT-4o中新增的图像生成功能更新在短短一个月内引发了巨大增长,助力ChatGPT达到8亿用户。微软继续利用其庞大的企业足迹和与OpenAI的合作,而Anthropic仍然是一个强有力的竞争对手,尤其是在编码和注重安全的应用程序领域。
然而,无可争议的是,谷歌的叙述已经显著改善。仅仅一年前,谷歌被视为一个迟缓、笨拙、可能错失引领人工智能机会的竞争者。相反,其独特的集成堆栈和公司坚定性揭示了另一件事:谷歌在从芯片设计(TPUs)到全球基础设施、基础模型研究(DeepMind)、应用开发(Workspace、搜索、YouTube)以及企业云服务(Vertex AI、BigQuery、AgentSpace)的整个光谱上都具备世界级能力。
“我们是唯一一家参与基础模型讨论的超大规模提供商,”deSouza直截了当地说道。这种端到端的所有权允许进行优化(如“每美元智能”)和集成深度,而依赖合作伙伴模式的模型难以匹敌。竞争对手往往需要拼凑不同的部分,这可能导致摩擦或限制创新速度。
谷歌的时刻已经到来
尽管人工智能竞赛仍然充满活力,谷歌在市场需要这些要素的时刻汇集了所有这些要素。正如德勤的Laughridge所说,谷歌达到了一个其能力完美契合市场需求的点。如果你一直在等待谷歌证明自己在企业人工智能领域的能力,你可能错过了那个时刻——它已经做到了。
发明了许多推动这场革命核心科技的公司似乎终于赶上了——不仅如此,它现在正在设定竞争对手需要追赶的步伐。
谷歌的时刻已经到来
在下面录制的Next之后的视频中,AI专家Sam Witteveen和我一起剖析了当前的格局和新兴趋势,以及为什么谷歌的AI生态系统感觉如此强大:
每日商业用例洞察来自VB Daily
如果你想给老板留下深刻印象,VB Daily可以帮到你。我们将为你提供公司如何使用生成式人工智能的内幕信息,从监管变化到实际部署,这样你就可以分享见解以获得最大ROI。立即订阅
阅读我们的隐私政策
感谢订阅。查看更多VB新闻通讯。
发生错误。
(以上内容均由Ai生成)