GPT-5.1更新加速编码,大幅降低API成本
快速阅读: OpenAI发布GPT-5.1,通过自适应模式和无推理模式加速编程,降低API成本,提高IDE智能,增强编码效率和响应速度。
Elyse Betters Picaro/ZDNET
关注 ZDNET:
将我们设为 Google 的首选来源。
ZDNET 要点总结
GPT-5.1 通过自适应模式和无推理模式加速编程。
新的提示缓存功能降低了嵌入式应用程序开发者的 API 成本。
新工具使现代 IDE 中的 AI 代理更加智能。
OpenAI 推出了其前代大型语言模型 GPT-5 的新版本 GPT-5.1。GPT-5 于去年8月推出,在人工智能的发展速度下,这似乎已是很久以前的事了。OpenAI 当然在利用 AI 加速其编码过程。毕竟,它正与其他大公司竞争,以实现数万亿美元的估值。此外,实践证明,对于专业程序员而言,AI 编码几乎是神奇的力量倍增器和项目加速器。
(披露:ZDNET 的母公司 Ziff Davis 于2025年4月对 OpenAI 提起诉讼,指控其在训练和运营 AI 系统时侵犯了 Ziff Davis 的版权。)
此外:
OpenAI 的 GPT-5.1 让 ChatGPT 更温暖、更智能——其升级模式如何运作
关于 GPT-5.1 对消费者聊天机器人用户的益处,
请阅读高级编辑 Sabrina Ortiz 的解释
。但如果你对在编程或软件中使用 AI 感兴趣,请继续阅读。此次发布的更新带来了实际的速度提升和成本节省优势。
本文讨论的是
API 驱动下的 GPT-5.1
。换句话说,我们将探讨通过程序函数调用向 AI 发送提示,并接收调用返回的结果的过程。这种 API 驱动的 AI 功能不仅在开发者制作的软件产品中工作,而且由于开发工具本身也使用 API 提供智能支持,因此增加了这些工具的实用性。这同样有利于使用 OpenAI 的 Codex 编码代理的开发者,因为 Codex 现在也有 5.1 版本。
例如,JetBrains 是一款优秀开发工具的制造商。尽管我
已经从 JetBrains 平台转向 VS Code
,因为后者使用更为广泛(我经常需要与你讨论它),但我仍然非常喜欢 JetBrains 的产品。事实上,在使用 VS Code 时,有时我会怀念 JetBrains 的某些特性。
这就是为什么当 JetBrains 的 AI 开发工具生态系统负责人 Denis Shiryaev 在 OpenAI 博客文章中描述公司对新 GPT-5.1 版本的体验时,显得如此有趣。他说:“GPT 5.1 不仅仅是一个语言模型——它真正具有自主性,是我测试过的最自然自主的模型。”
“它的写作方式像你一样,编码方式像你一样,能够轻松遵循复杂的指令,并在前端任务中表现出色,完美融入现有的代码库。”他说道。
接下来,让我们看看 GPT-5.1 为何能获得如此热烈的反响。
自适应推理
我发现使用 GPT-5 编码非常强大,但偶尔会有些繁琐。无论我向 AI 提出什么问题,都需要时间来回应。即使是简单的询问,也可能需要几分钟才能得到回复。这是因为所有查询都发送到了同一个模型上。
GPT-5.1 会评估给定的提示,根据问题是简单还是复杂,调整其回答所需的认知努力。这意味着简单的问题不会再有之前使用旧编码模型时的延迟。
这里有一个我几天前给 GPT-5 的提示:“请检查我的工作。我正在重命名 EDD_SL_Plugin_Updater,以便每个使用它的插件都有一个独特的名称,以避免冲突。我已经更新了更新器文件中的类名,更新了更新器文件名,并更新了插件主文件中对该文件和类的引用。请检查插件是否有任何错误,并向我报告,不要做任何更改。”
相比之下,“显示已安装插件列表的 WP-CLI 命令是什么?”这样的问题就非常简单。这基本上是一个文档查找,几乎不需要任何智能。这只是为了节省时间,避免切换到浏览器进行 Google 搜索。
对于这类快速问题,答案更快,且使用的令牌更少。令牌是衡量处理量的单位。API 调用按令牌计费,这意味着简单的便利问题成本更低。
还有一个强大的方面,即 OpenAI 所谓的“更持久的深度推理”。没有什么比与 AI 长时间对话后,它突然忘记你在说什么更令人沮丧的了。现在,OpenAI 称 AI 可以更长时间地保持对话连贯。
“无推理”模式
这又是一个案例,表明OpenAI在产品命名方面可能需要一些坚实的产品管理。这种模式并没有关闭上下文理解、高质量代码编写或指令理解能力,而是关闭了深入的、链式思考风格的分析。他们应该将其称为“不要过度思考”模式。
可以这样想:我们都有一个朋友,对每个问题或行动都过度思考。这让他们陷入困境,花很长时间才能完成简单的事情,往往导致分析瘫痪。有时候需要深度思考,有时候则只需选择纸袋还是塑料袋,然后继续前进。
此外:
我将两种AI工具结合,解决了重大bug——但这离不开我的参与
新的无推理模式使AI能够避免其通常的逐步推理,直接跳到答案。这非常适合简单的查找或基本任务。这大大减少了响应时间(延迟),也使得编码体验更加响应迅速、快速和流畅。
将无推理模式与自适应推理相结合,意味着AI可以在回答复杂问题时花费时间,但在应对简单问题时能快速回应。
扩展提示缓存
另一个速度提升(伴随成本降低)是扩展提示缓存。当AI收到提示时,它首先需要使用自然语言处理能力来解析该提示,以确定被问的是什么。
这绝非易事。AI研究人员花了数十年时间才让AI达到能够理解自然语言以及其中的上下文和微妙含义的程度。
因此,当发出提示时,AI必须做一些实际的工作来将其标记化,创建内部表示,从而构建响应。这并不是没有资源利用成本的。
如果在一个会话中问题被重新提出,或者相同或类似的提示需要重新解释,这个成本就会再次产生。请注意,这里不仅指程序员给API的提示,还包括应用程序内部运行的提示,这些提示在应用程序使用过程中可能会频繁重复。
例如,客户支持代理的详细提示,在每次客户互动时都需要处理同一套基本起始规则。该提示可能需要数千个标记来解析,并且每天需要处理数千次。
通过缓存提示(OpenAI现在将其缓存24小时),提示只需编译一次,然后即可重用。这可能会带来显著的速度提升和成本节约。
更好的设计集成商业案例
所有这些改进为OpenAI提供了向客户展示更好设计集成的商业案例。设计集成是一个相当古老的术语,用于描述组件被设计到产品中。
最著名(也是最具影响力)的设计集成案例可能是1981年IBM选择Intel 8088 CPU用于最初的IBM PC。这一决定启动了整个x86生态系统,并推动了Intel在处理器领域的成功数十年。
如今,Nvidia因数据中心运营商对AI处理能力的巨大需求而受益匪浅。这种需求推动Nvidia成为按市值计算全球最有价值的公司,市值超过5万亿美元。
OpenAI也从设计集成中受益。CapCut是一款视频应用,2025年的下载量达3.61亿次。Temu是一款购物应用,2025年的下载量达4.38亿次。如果这两家公司中的任何一家将AI嵌入其应用中,并使用来自OpenAI的API调用,OpenAI将从累积的API调用量及其相关账单中获得大量收入。
然而,与物理组件一样,设计集成的成本也是一个问题。每减少几分之一美分的成本,都会增加最终产品的价格或严重影响利润率。
因此,归根结底,如果OpenAI能够大幅降低API调用的成本,同时仍能提供AI价值,正如GPT-5.1所显示的那样,那么它更有机会说服开发者在其产品中包含GPT-5.1。
更多新功能
GPT-5.1的发布还带来了更好的编码性能。AI更具可操控性和顺从性,这意味着它更能遵循指令。如果我的小狗也能更顺从些,邮件送达时就不会有持续的痛苦叫声了。
编码AI减少了不必要的过度思考,在调用工具时更加对话化,并在序列交互过程中表现出更加友好的行为。此外,还引入了新的apply_patch工具,有助于处理多步骤编码序列和代理行动,以及一个新的shell工具,该工具在生成命令行命令及根据响应评估和行动方面表现更佳。
另外:
OpenAI现已推出新的代理编码伙伴:GPT-5-Codex
我对这一新版本感到非常兴奋。既然我已经在使用GPT-5,现在能体验到GPT-5.1带来的更多响应性提升将是一件好事。
那么您呢?您是否尝试过在编码或开发流程中使用GPT-5或新的GPT-5.1模型?您是否看到了OpenAI承诺的速度或成本改进,还是仍在评估这些变化对您的项目有多重要?对于选择集成到工具或产品中的AI模型而言,自适应推理、无推理模式或提示缓存等功能的重要性如何?欢迎在评论区分享您的看法。
您可以在社交媒体上关注我的日常项目更新。请订阅
我的每周更新通讯
,并在Twitter/X上关注
@DavidGewirtz
,在Facebook上关注
Facebook.com/DavidGewirtz
,在Instagram上关注
Instagram.com/DavidGewirtz
,在Bluesky上关注
@DavidGewirtz.com
,以及在YouTube上关注
YouTube.com/DavidGewirtzTV
。
(以上内容均由Ai生成)