Microsoft 的 AI 总体规划:让 OpenAI 烧钱,然后在他们的成功基础上再接再厉
快速阅读: 据《The Register》最新报道,微软AI主管苏莱曼认为在生成式AI竞赛中扮演“配角”更有利,可通过优化特定场景降低成本并提升效果。微软依赖OpenAI模型的同时,开发了开源Phi模型以降低成本并提高灵活性,但长期仍需独立发展。此外,微软正推动AI系统整合及工具开发,以提升应用效率。
微软人工智能首席执行官穆斯塔法·苏莱曼盛赞在生成式人工智能竞赛中扮演“配角”的益处。在上周一次电视新闻采访中,苏莱曼认为,与直接与最前沿模型开发者竞争相比,落后三到六个月,再在此基础上进一步发展更为划算。他周五对CNBC表示:“鉴于这些模型的资本密集性,我们的策略是扮演非常紧密的‘第二名’角色。”
除了成本更低,苏莱曼提到,额外的时间能让微软针对特定客户应用场景进行优化。尽管这一策略对处于生成式人工智能核心的企业而言或许显得不寻常,但它反映了微软乃至苏莱曼本人的独特定位。
苏莱曼因是DeepMind的联合创始人而闻名,该公司于2014年被谷歌收购。苏莱曼去年短暂担任Inflection AI首席执行官后加入微软。尽管他的前雇主谷歌正与Anthropic和OpenAI等公司直接竞争,以打造更强大且功能更丰富的模型,但微软尚未推出自家的最前沿模型。
相反,雷德蒙德的战略与OpenAI密切相关,微软为其提供巨额Azure云计算资源,以换取在其日益扩大的Copilot品牌人工智能服务中使用OpenAI的GPT系列模型的权利。这种合作关系或许可以解释苏莱曼的方法。当你的朋友山姆·阿尔特曼通过OpenAI为你做这件事时,投入大量资本去建造可能在市场上成功或失败的最前沿模型并无太大意义。
话虽如此,微软并未将所有资源集中在一个篮子中。虽然GPT系列是许多熟悉Windows和微软云Copilot服务的核心,但它并非唯一的模型集合。值得注意的是,这家Excel巨头开发了一组名为Phi代号的小型语言模型,采用宽松许可。这些开源模型相对较小,参数量通常在几十亿级别,适合在边缘设备上使用,如笔记本电脑,而非需要数百万美元GPU集群的大规模模型。这些模型的功能通常也落后于OpenAI的顶尖产品,例如多模态或多专家(MoE)架构。
根据我的个人体验,微软的Phi系列模型在其大小范围内表现相当出色,尽管它们在功能上并不特别令人兴奋。小尺寸带来了某些优势。例如,Phi-4拥有140亿个参数,能在单个高端GPU上运行,同时保持可接受的生成速度。这使得这些神经网络在运行成本上比几倍大的模型便宜得多,后者通常需要多个GPU,甚至GPU服务器才能达到可接受的性能。
自我发展的前奏
虽然苏莱曼短期内不会直接与OpenAI或Anthropic竞争,但微软对OpenAI的依赖可能不会永远持续下去。“对我们来说,长期能够独立地在人工智能领域取得成功绝对是关键任务”,他对CNBC说道。然而,尽管Phi可能是实现这一目标的前奏,似乎雷德蒙德与OpenAI的合作将持续至少五年。“至少到2030年,我们与OpenAI深度合作,他们对我们有着非常成功的合作关系”,他补充道。
苏莱曼淡化了对微软与OpenAI关系的担忧,随后超级实验室与甲骨文和软银的合作宣布,该合作去年宣布。作为协议的一部分,微软不再是OpenAI的独家云合作伙伴。
然而,需要注意的是,微软并不是唯一采取这种策略的企业。其他几家云提供商已在这条追随领导者的战略中取得成功。亚马逊云服务(AWS)显然属于这一阵营。AWS大力投资于OpenAI的竞争对手Anthropic,并为其提供了天文数字般的计算资源,例如其去年12月公布的Rainier集群项目。与此同时,AWS一直在低调开发自己的语言模型家族,代号为Nova。然而,与微软不同的是,AWS似乎对其项目实施了更严格的管控。Nova是专有的,而微软的Phi模型则获得了MIT许可,并在包括Hugging Face在内的模型库中免费提供。
同样可以提出论点的是,中国电子商务和云巨头阿里巴巴采用了类似的策略,其Qwen团队也是如此。Qwen模型家族因其众多相同原因引起广泛关注,就像微软的Phi一样。这些模型在技术上虽然未必具有开创性,但往往能超出预期表现,实现了与数倍于其规模的LLM相当的性能。Qwen的QwQ 32B预览版于11月下旬首次亮相,大约两个月后,OpenAI的o1预览版普及了“思考”即推理模型的概念。经过三个月的打磨后,阿里巴巴发布了最终版本,比o1的最终版本晚了三个月。类似的论点同样适用于DeepSeek。随着推理语言模型概念的确立,这家中国人工智能初创公司可以专注于迭代和优化这一概念,从而大大减少创建和运行此类模型所需的计算资源。
美国能源部希望开发商加速在其土地上建设AI数据中心。
萨蒂亚·纳德拉表示,人工智能尚未找到一个杀手级应用,其影响力能与电子邮件和Excel相提并论。
系统方法
除了更便宜之外,苏莱曼的策略还意味着微软可以将更多精力集中在围绕大型语言模型构建应用程序和其他系统上,而不是寻找新方法来操控神经网络。虽然许多注意力都集中在模型本身,正如我们之前探讨过的那样,将其有效整合到企业系统中可能是个相当棘手的挑战。
除了Phi模型外,微软还稳步推出了研究和软件框架,旨在使这些模型的集成更加容易和计算效率更高。例如,这家IT巨头开发了Autogen,这是一个用于协调多个AI代理的框架。与此同时,上个月,雷德蒙德详细介绍了其在KBLaM上的工作,该框架旨在减少使用结构化数据扩展语言模型知识的计算复杂度。上周,微软推出了开源工具VidTok,这是一种视频标记器,用于将视频转换为标记,以便机器学习模型更容易理解视频内容。
(以上内容均由Ai生成)