谁需要大型 AI 模型?
快速阅读: 据《福布斯》最新报道,Cerebras CEO称AI快速演变,小型模型虽成本低,但代码生成等任务仍需大模型。Cerebras推出支持131K上下文的Qwen3-235B,速度比GPU快30倍,成本仅为1/10。
Cerebras Systems 首席执行官兼创始人安德鲁·费尔德曼表示,人工智能世界正在迅速演变,尤其是在 DeepSeek 及其追随者推出之后。许多人得出结论认为,企业并不真正需要 OpenAI、Meta 和 Google 所宣传的大型昂贵 AI 模型,而是转而关注较小的模型,例如拥有 24 亿参数的 DeepSeek V2-Lite,或者拥有 170 亿参数的 Llama 4 Scout 和 Maverick,这些模型可以在较低成本下提供不错的准确性。然而,结果发现,对于程序员来说并非如此,或者说那些能够并将会取代许多程序员的模型。同样,小型化理念也不适用于推理或代理 AI,这是下一个大趋势。
AI 代码生成器需要能够处理更宽上下文窗口的大模型,可以容纳大约 10 万行代码。支持代理 AI 和推理 AI 的专家混合(MOE)模型也很大。但这些庞大的模型通常非常昂贵,在现代 GPU 上每百万输出标记的成本约为 10 到 15 美元。这就是新型 AI 架构进入 GPU 领域的机会。
Cerebras Systems 推出基于 Qwen3-235B 的大型人工智能
Cerebras Systems(Cambrian-AI Research 的合作伙伴)已宣布支持大型 Qwen3-235B,支持 131,000 个上下文长度(约 200 至 300 页文本),是之前可用量的四倍。在巴黎的 RAISE 峰会上,Cerebras 引用了阿里巴巴的 Qwen3-235B,该模型使用高度高效的专家混合架构,实现了卓越的计算效率。但真正的新闻是,Cerebras 只需每百万输入标记和每百万输出标记 0.60 美元即可运行该模型,仅为同类封闭源代码模型成本的十分之一。虽然许多人认为 Cerebras 的晶圆级引擎价格昂贵,但这些数据颠覆了这种看法。
代理是一个经常需要非常大模型的应用场景。Cerebras 我经常被问到的一个问题是,如果 Cerebras 这么快,为什么他们没有更多的客户?一个原因是他们之前并未支持大上下文窗口和更大的模型。例如,寻求开发代码的人不希望将问题分解成小片段以适应 32KB 的上下文。现在,这个销售障碍已经消失了。
“我们看到开发者对具有长上下文的前沿模型有巨大的需求,特别是用于代码生成,”Cerebras Systems 首席执行官兼创始人安德鲁·费尔德曼表示。“Cerebras 上的 Qwen3-235B 是我们第一个能与 Claude 4 和 DeepSeek R1 等前沿模型相媲美的模型。并且拥有完整的 131K 上下文,开发者现在可以在生产级编码应用中使用 Cerebras,并在不到一秒内获得答案,而不是在 GPU 上等待几分钟。”
Cerebras 不仅快 30 倍,而且比 GPU 便宜 92%。
Cerebras Systems 将其上下文长度支持从 32K 扩展到了 131K 个标记——这是 Qwen3-235B 支持的最大值。这种扩展直接影响模型在大型代码库和复杂文档上的推理能力。虽然 32K 的上下文足以满足简单的代码生成用例,但 131K 的上下文使模型能够同时处理数十个文件和数万行代码,从而实现生产级应用程序的开发。
当运行 Qwen3-235B 时,Cerebras 的成本仅为 GPU 的 15 至 100 倍。
Qwen3-235B 在需要深度逻辑推理、高级数学和代码生成的任务中表现出色,因为它能够在“思考模式”(用于高复杂度任务)和“非思考模式”(用于高效的一般对话)之间切换。131K 的上下文长度使模型能够处理大型代码库(数万行代码),并支持代码重构、文档编写和错误检测等任务。
Cerebras 还宣布进一步扩展其生态系统,得到了亚马逊 AWS 的支持,以及 DataRobot、Docker、Cline 和 Notion 的支持。AWS 的加入意义重大。
Cerebras 已将 AWS 加入其云产品组合中。
这将走向何方?
大型 AI 一直在不断缩小并优化,性能、模型大小和价格都有数量级的提升。这一趋势无疑将继续,但会不断被能力、准确性、智能性和跨模态的全新功能的增加所抵消。因此,如果你想使用去年的 AI,你已经很好了,因为它的价格还在下降。
但如果你想使用最新的功能和特性,你需要最大的模型和最长的输入上下文长度。
这就是 AI 的阴阳两面。
(以上内容均由Ai生成)