Google 声称 Gemma 3 的准确率达到了 DeepSeek 的 98% – 仅使用一个 GPU
快速阅读: 据《ZDNet》称,谷歌推出Gemma 3大模型,性能接近深度求索R1,但计算需求仅为R1的一小部分。Gemma 3通过蒸馏技术和多种强化学习提升效率与安全性,参数量较小,适合单设备使用。
谷歌人工智能的经济性近期成为热议话题,初创公司深度求索AI声称在部署GPU芯片时实现了惊人的规模经济效应。谷歌不甘示弱,于周三推出了最新开源大模型Gemma 3,在估算的计算能力仅为深度求索R1一小部分的情况下,接近达到R1的准确性。
使用国际象棋和运动员常用的“Elo”评分系统,谷歌称Gemma 3的得分为1338分,与深度求索R1的1363分相差不到2%。尽管如此,这意味着R1优于Gemma 3。然而,根据谷歌的估计,要达到R1的分数需要32块Nvidia主流的“H100”GPU芯片,而Gemma 3仅需一块H100 GPU。
谷歌认为其计算能力和Elo评分的平衡是一个理想点,该公司声称。在一篇博客文章中,谷歌将新程序宣传为“能在单个GPU或TPU上运行的最强模型”,指的是公司的定制AI芯片——“张量处理单元”。
博客文章提到:“Gemma 3在其尺寸上提供了最先进的性能,在LMArena排行榜的初步人类偏好评估中,其表现优于Llama-405B、DeepSeek-V3和o3-mini。”并引用了Elo评分。
“这能帮助你构建适合单个GPU或TPU运行的有趣体验。”
谷歌的模型也超过了Meta的Llama 3的Elo评分,后者估计需要16块GPU。(注意,竞争对手使用的H100芯片数量是谷歌的估计;深度求索AI仅披露了一个例子,即使用1814块Nvidia较弱的H800 GPU来回答R1的问题。)
更多详情可在HuggingFace的开发者博客中查看,其中提供了Gemma 3存储库。
Gemma 3模型旨在设备端使用,而非数据中心,其参数量(或神经“权重”)远少于R1和其他开源模型。一般来说,参数越多,所需的计算能力就越大。
此外:
什么是深度求索AI?它安全吗?这里是你需要知道的一切
Gemma代码提供的参数量为10亿、40亿、120亿和270亿,按当前标准来说很小。相比之下,R1的参数量为6710亿,其中可通过忽略或关闭网络的部分选择性地使用370亿。
使这种效率成为可能的主要改进是一种广泛使用的AI技术,称为蒸馏技术,即将较大模型的训练权重从该模型中提取出来并注入到较小的模型(如Gemma 3)中,以赋予其增强的能力。
蒸馏后的模型还通过三种不同的质量控制措施运行,包括从人类反馈中进行强化学习(RLHF),以塑造GPT和其他大型语言模型的输出,使其无害且有帮助;以及从机器反馈中进行强化学习(RLMF)和从执行反馈中进行强化学习(RLEF),谷歌表示这些分别提升了模型的数学和编码能力。
此外:
2025年最佳编程AI工具(以及不该用的——包括深度求索R1)
我测试了深度求索R1和V3的编程技能——目前还不必过于担忧
如何从Microsoft 365计划中移除Copilot
如何在MacOS上安装LLM(以及为什么应该这样做)
2025年最佳编程AI工具(以及不该用的——包括深度求索R1)
我测试了深度求索R1和V3的编程技能——目前还不必过于担忧
如何从Microsoft 365计划中移除Copilot
如何在MacOS上安装LLM(以及为什么应该这样做)
(以上内容均由Ai生成)