GPT-5.1更新提速编码降低成本
快速阅读: OpenAI发布GPT-5.1,引入自适应模式和无推理模式加速编码,新提示缓存降低API成本,提升现代IDE中AI代理能力,增强开发者效率。
Elyse Betters Picaro/ZDNET
关注 ZDNET:
将我们设为 Google 的首选来源。
ZDNET 要点
GPT-5.1 通过自适应模式和无推理模式加速编码。
新的提示缓存降低了嵌入式应用程序开发者的 API 成本。
新工具增强了现代 IDE 中的人工智能代理能力。
OpenAI 推出了其先前大型语言模型 GPT-5 的 5.1 版更新。GPT-5 于去年八月推出,在人工智能发展的快速时间线上,这已是数十年前的事了。
OpenAI 当然在利用人工智能帮助其更快地编码。毕竟,它正与其他大玩家竞争,以实现那个万亿级别的估值。此外,事实已经无可争议地证明,专业编码者手中的 AI 编码几乎是一个神奇的力量倍增器和项目加速器。
(披露:ZDNET 的母公司 Ziff Davis 在 2025 年 4 月对 OpenAI 提起诉讼,指控其在训练和运营 AI 系统时侵犯了 Ziff Davis 的版权。)
相关报道:
OpenAI 的 GPT-5.1 让 ChatGPT 更温暖、更智能——其升级模式的工作原理
关于 GPT-5.1 对消费者聊天机器人用户的益处概述,
请阅读高级编辑 Sabrina Ortiz 的解释
。如果您有兴趣在编码或软件中嵌入 AI,请继续阅读。此版本带来了实际的速度提升和成本节约。
本文讨论的是
GPT-5.1 在 API 中的应用
。换句话说,我们将探讨通过程序函数调用向 AI 发送提示,并从该调用中获取返回值的过程。
这种由 API 驱动的人工智能功能不仅在开发者制作的软件产品中工作,而且由于开发工具本身也使用 API 提供智能,这增加了这些工具的实用性。这也使使用 OpenAI 的 Codex 编码代理的开发者受益,因为 Codex 现在有了 5.1 版本。
相关报道:
2025 年最佳免费 AI 课程和证书——我都试过
例如,JetBrains 是一款优秀开发工具的制造商。虽然我
已经离开了 JetBrains 平台
,因为 VS Code 的使用更为广泛(我经常需要与您讨论它),但我仍然最喜欢 JetBrains 的一些产品。事实上,使用 VS Code 时,我有时会怀念 JetBrains 的一些功能。
这就是为什么当 JetBrains AI 开发工具生态系统负责人 Denis Shiryaev 在 OpenAI 博客文章中描述公司对新 GPT-5.1 版本的体验时,会显得如此有趣。他说:“GPT 5.1 不仅仅是一个语言模型——它是真正具有自主性的模型,是我测试过的最自然的模型。”
“它像你一样写作,像你一样编码,轻松遵循复杂指令,擅长前端任务,能够完美融入现有的代码库,”他补充道。
让我们来看看 GPT-5.1 为何获得如此热烈反响的一些原因。
自适应推理
我发现使用 GPT-5 编码非常强大,但偶尔也会感到乏味。无论我向 AI 提出什么问题,都会花费时间。即使是最简单的问题也可能需要几分钟才能得到回复,因为所有查询都发送给同一模型。
GPT-5.1 会评估给定的提示,根据问题是简单还是复杂来调整回答所需的认知努力。这意味着简单问题不再会有之前使用旧编码模型时的延迟。
这里有一个我几天前给 GPT-5 的提示:“请检查我的工作。我已经重命名了 EDD_SL_Plugin_Updater,以便每个使用它的插件都有一个唯一名称,以避免冲突。我在更新器文件中更新了类名,更新了更新器文件名,并在插件主文件中更新了对文件和类的引用。你能检查插件,确保没有错误吗?如果发现问题,请向我报告,不要做任何更改。”
相关报道:
10 个我使用的 ChatGPT 提示技巧——更快获得最佳结果
这是一个大请求,要求 AI 扫描大约 12,000 个文件并提供分析。它应该尽可能多地使用思考能力。
相比之下,“显示已安装插件列表的 WP-CLI 命令是什么?”这样的提示就非常简单。这基本上是一个文档查找,不需要真正的智能。这只是一个小巧的时间节省提示,这样我就不用切换到浏览器进行谷歌搜索了。
简单问题的回答更快,且使用更少的 token。Token 是衡量处理量的单位。API 调用是按 token 收费的,这意味着简单的便利性问题询问成本更低。
还有一个方面也非常强大,即 OpenAI 所谓的“更持久的深度推理”。没有什么比与 AI 进行长时间对话,然后 AI 忘记了谈话内容更令人沮丧的了。现在,OpenAI 表示 AI 可以保持更长的跟踪。
无推理模式
这又是一个案例,表明OpenAI可以从产品命名方面的产品管理中受益。这种模式并不是关闭上下文理解、高质量代码编写或指令理解能力,而是关闭深入的链式思维分析。他们应该将其称为“不要过度思考”模式。
可以这样理解:我们都有一个朋友,凡事都会过度思考,这让他们陷入困境,做简单的事情也要花很长时间,经常导致分析瘫痪。有时候需要深度思考,而有时候只需选择纸袋或塑料袋然后继续前进。
此外:
我将两种AI工具结合起来解决了一个重大漏洞——但没有我的帮助它们无法完成。
这种新的无推理模式使AI能够避免通常的逐步分析,直接跳到答案。它非常适合简单的查找或基本任务。这大大减少了响应时间(延迟),同时也创造了更加响应迅速、快速且流畅的编码体验。
结合无推理模式与自适应推理意味着AI可以在回答复杂问题时花费时间,而对于简单的问题则能快速回应。
扩展提示缓存
另一个速度提升(伴随成本降低)是扩展提示缓存。当AI收到提示时,它首先需要使用自然语言处理能力来解析该提示,以确定被问的是什么。
这不是一件小事。AI研究人员花了数十年的时间才使AI能够理解自然语言以及其中的背景和细微含义。
因此,当发出提示时,AI必须做一些实际工作来将其分词,创建内部表示形式,从而构建响应。这并非没有资源利用成本。
如果在会话过程中同一个问题被重新提出,或者相同的或类似的提示需要重新解析,那么这个成本就会再次产生。请注意,这里不仅指程序员给API的提示,还包括应用程序内部运行的提示,这些提示在应用程序使用过程中可能经常重复。
例如,客户支持代理的详细提示,在每次客户互动时都需要处理同一套基本起始规则。该提示可能需要数千个标记才能解析,并且每天可能需要处理数千次。
通过缓存提示(OpenAI现在这样做24小时),提示会被编译一次然后可供重用。速度提升和成本节约可能是相当可观的。
更好的业务案例设计
所有这些改进都为OpenAI提供了更好的业务案例,以向客户展示其产品设计的优势。设计是指将组件设计到产品中。
最著名的(也是最具影响力的)设计案例之一是1981年IBM选择Intel 8088 CPU用于最初的IBM PC。这一决定启动了整个x86生态系统,并推动了Intel在处理器领域的成功长达数十年。
如今,Nvidia得益于数据中心运营商对最大AI处理能力的需求,成为世界上最有价值的公司之一,市值超过5万亿美元。
OpenAI同样从设计中受益。CapCut是一款视频应用,2025年下载量达到3.61亿次。Temu是一款购物应用,2025年下载量达到4.38亿次。如果这两家公司中的任何一家将AI嵌入其应用中,并且使用OpenAI的API调用,OpenAI将从累计的API调用量及其相关账单中获得大量收入。
但是,就像物理组件一样,设计中的商品销售成本始终是一个问题。每减少一美分的商品成本,都可能增加最终产品的价格或严重影响利润率。
所以,归根结底,如果OpenAI能够大幅降低API调用的成本,同时仍能提供AI价值,正如GPT-5.1似乎做到的那样,那么它就有更大的机会说服开发者在其产品中集成GPT-5.1。
更多的新功能
GPT-5.1版本还带来了更好的编码性能。AI变得更加可控,更能遵循指示。如果我的小狗也能更听话,那么邮递员来送信时就不会有持续痛苦的吠叫了。
编码AI减少了不必要的过度思考,在调用工具时更加对话化,并在序列交互过程中表现出更为友好的行为。此外,还推出了一种新的apply_patch工具,有助于处理多步骤编码序列和代理行动,以及一种新的shell工具,在生成命令行命令、评估并根据响应采取行动方面表现更佳。
此外:
OpenAI现在为您提供了新的代理编码伙伴:GPT-5-Codex
我对这次新发布的版本感到非常兴奋。由于我已在使用GPT-5,现在能够看到它在升级到GPT-5.1后变得更加灵敏,这将是一大进步。
您呢?是否尝试过在编码或开发流程中使用GPT-5或最新的GPT-5.1模型?您是否看到了OpenAI承诺的速度或成本改进,还是仍在评估这些变化对您的项目有多重要?像自适应推理、无推理模式或提示缓存这样的功能在您选择要集成到工具或产品中的AI模型时有多重要?欢迎在评论区分享您的看法。
您可以在社交媒体上关注我的日常项目更新。请订阅
我的每周更新通讯
,并在Twitter/X上关注
@DavidGewirtz
,在Facebook上关注
Facebook.com/DavidGewirtz
,在Instagram上关注
Instagram.com/DavidGewirtz
,在Bluesky上关注
@DavidGewirtz.com
,以及在YouTube上关注
YouTube.com/DavidGewirtzTV
。
(以上内容均由Ai生成)