Cerebras Systems 为 AI 推理开辟了一条道路,为实时高级推理提供支持
快速阅读: 据《硅角度》最新报道,塞雷布拉推出Qwen3-32B模型,号称全球最快推理平台,性能超英伟达,成本更低,已吸引多家企业客户。
塞雷布拉系统股份有限公司是一家专注于人工智能芯片的初创企业,近日宣布推出了Qwen3-32B,这款模型被认为是全球最先进的开放权重大型语言模型之一,展现了其在AI推理领域的卓越能力,甚至超过了英伟达。该公司表示,其推理平台实现了前所未有的突破,在不到两秒的时间内就能完成复杂的AI推理任务,几乎达到了实时性能。
Qwen3-32B模型现已在其推理平台上正式上线,这是一个云服务,据称能够以远超基于英伟达GPU同类产品的速度运行强大的大型语言模型。塞雷布拉的处理器专为高性能计算而设计,其旗舰产品是在2024年3月发布的采用五纳米工艺的处理器,该处理器包含1.4万亿个晶体管,提供了超过90万个计算核心,相当于单个英伟达H100 GPU核数的52倍。此外,这款WSE-3处理器还配备了44GB的板载缓存,解决了英伟达芯片面临的高内存带宽需求这一主要瓶颈。
塞雷布拉于去年八月正式推出了其AI推理服务。所谓推理,指的是利用经过训练的AI模型来处理实时数据,从而进行预测或解决问题,这已经成为AI行业不可或缺的重要组成部分。公司声称,其推理平台是世界上最优秀的,可以以每秒超过2000个标记的速度运行顶级AI模型,远远超越了基于英伟达的推理服务。此前,该公司宣称其平台能够让Meta的Llama 4运行速度提升至原来的20倍,并对许多其他顶级AI模型做出了类似的声明。这些说法已经赢得了越来越多企业客户的信任,例如Mistral AI这样的AI模型制造商。
Qwen3-32B发布之后,塞雷布拉的联合创始人兼首席执行官安德鲁·费尔德曼表示,公司的推理平台的速度足以重新定义实时AI的构建方式。他提到,这是第一次出现了世界级的推理模型,其表现堪比DeepSeek R1和OpenAI的o系列,能够瞬间给出答案。Qwen3-32B是目前最先进的开放权重推理模型之一,由阿里巴巴集团开发,在测试中表现出与顶级封闭模型相当的性能,例如GPT-4.1和DeepSeek R1。在塞雷布拉的推理平台上运行时,Qwen3-32B模型只需要1.2秒就能完成复杂推理并生成回复,塞雷布拉称这比最好的竞争对手快了60多倍,包括OpenAI的o3。塞雷布拉平台上的Qwen3-32B为新一代更响应迅速的AI代理、副驾驶以及自动化工作负载奠定了基础。
推理模型是功能最强大的大型语言模型类型之一,能够通过多步逻辑指导结构化决策和第三方软件工具的使用,但长期以来一直受到延迟问题的困扰,通常需要30到90秒才能生成输出。塞雷布拉表示,现在这种延迟已经不再是限制因素。更令人鼓舞的是,塞雷布拉表示,它能够以极低的成本提供对Qwen3-32B的快速访问,每百万输入标记的费用仅为40美分起,每百万输出标记为80美分。费尔德曼称,这意味着它比OpenAI的GPT-4.1便宜约10倍。他说:“我们这里有一个开源模型,在大多数指标上都优于或相当于世界顶级模型,并且我们以极低的价格提供它。”
塞雷布拉鼓励开发者尝试使用这一平台,称每位用户每天都可以获得100万个免费标记用于实验,无需排队。鉴于Qwen3-32B采用了Apache 2.0许可,它是完全免费的,并可以通过OpenAI和Claude兼容的接口集成到应用中。
图片:SiliconANGLE/微软设计师
来自硅谷立方体联合创始人约翰·弗莱瑞纳的消息:
您的支持对我们非常重要,它帮助我们保持内容免费。点击一下即可支持我们的使命,提供免费、深入且相关的内容。
加入我们的YouTube社区
加入包括超过15,000名#Cube校友专家的社区,其中包括亚马逊CEO安迪·贾西、戴尔科技创始人兼CEO迈克尔·戴尔、英特尔CEO帕特·格尔辛格等众多名人和专家。
“立方体是我们行业的重要的合作伙伴。你们真的是我们活动的一部分,我们真的很感激你们的到来,我知道人们也欣赏你们创造的内容。”
——安迪·贾西
(以上内容均由Ai生成)