阿里巴巴股价因新的开源 QwQ-32B 推理模型而上涨
快速阅读: 《硅角度》消息,阿里巴巴集团股价今日上涨超8%,因其开源了性能可与DeepSeek-R1媲美的推理模型QwQ-32B。该模型具有325亿参数,优于R1的6710亿参数。阿里巴巴通过强化学习方法开发QwQ-32B,使其在多项基准测试中表现优异。此举正值阿里巴巴承诺未来三年投资3800亿元人民币于AI基础设施之际。腾讯亦推出名为“慧眼极速版”的推理模型Hunyuan Turbo S。
阿里巴巴集团控股有限公司的股票今日上涨超过8%,此前该公司发布了一个性能可与DeepSeek-R1媲美的推理模型QwQ-32B于周三开放源代码。R1包含多个神经网络,总共有6710亿个参数。当模型接收查询时,它只使用其中一个神经网络来生成答案。实际上,这意味着R-1在任何给定时间仅激活其6710亿个参数中的370亿个。阿里巴巴的新QwQ-32B模型要小得多:该公司表示该算法总共有325亿个参数。QwQ-32B基于大多数大型语言模型所依赖的Transformer架构。基于Transformer的LLM使用一种称为注意力的机器学习技术来推断句子的意义。通过注意力,神经网络不仅可以考虑多个数据点,还可以优先处理最重要的数据点。对于这个模型,阿里巴巴对原始Transformer架构进行了几项修改。主要新增功能之一是旋转位置编码。这种能力使得LLM能够更全面地理解输入文本片段之间的关系,从而提高输出质量。它可以处理最多达131,072个标记的提示。一个标记相当于几个字符。阿里巴巴表示,该模型特别擅长推理任务,如编写代码、解决数学问题和执行外部应用程序中的任务。公司采用了一种称为强化学习的方法来开发QwQ-32B。在强化学习项目中,研究人员为AI模型提供一组训练任务,并委托另一个AI模型检查答案。当被训练的LLM正确完成任务时,它会获得有助于指导学习过程的分数。阿里巴巴通过两次训练会话开发了QwQ-32B。第一次会话专注于教授模型数学和编程技能。为了支持学习过程,阿里巴巴设置了一个服务器,运行QwQ-32B在训练过程中产生的代码并检查错误。在第二次训练会话中,公司磨炼了QwQ-32B的一般问题解决能力。第二次会话遵循相对简单的流程。这不仅提升了模型解决问题的能力,还增强了其根据用户指令调整输出的能力。据阿里巴巴称,QwQ-32B在用于比较LLM的五个基准中的三个上优于R1。前一模型在一个衡量LLM与外部系统交互能力的基准测试中取得了最大的得分差距,领先6%。阿里巴巴使用的另外两个测试评估了LLM的问答能力和根据用户介绍调整输出的能力。QwQ-32B的发布正值阿里巴巴承诺未来三年投资3800亿元人民币(约530亿美元)于AI基础设施之时。这比该公司过去十年在AI及其公共云平台上的投资还要多。其他中国科技巨头也在优先发展LLM。上周,腾讯控股有限公司推出了名为“慧眼极速版”的推理模型Hunyuan Turbo S。它能在不到一秒的时间内回答提示,并且其输出质量与R1的前身DeepSeek-V3相当。
—
图片:阿里巴巴硅峰联合创始人John Furrier
您的支持对我们非常重要,它帮助我们保持内容免费。只需点击一下,就能支持我们提供免费、深入且相关的内容的使命。加入我们的YouTube社区
加入包括超过15,000名#CubeAlumni专家的社区,其中包括亚马逊CEO安迪·贾西、戴尔科技创始人兼CEO迈克尔·戴尔、英特尔CEO帕特·格尔辛格等众多知名人士和专家。
“立方体是行业的重要合作伙伴。你们真的是我们活动的一部分,我们非常感谢你们的到来,我知道人们也欣赏你们创造的内容。”
——安迪·贾西
(以上内容均由Ai生成)