尽管 CEO 承认了这种习惯,但 OpenAI 继续命名混乱
快速阅读: 据《Ars Technica》称,OpenAI推出GPT-4.1,性能优异且成本更低,取代资源消耗大的GPT-4.5。GPT-4.1通过API提供不同版本,而ChatGPT用户使用不断迭代的专属GPT-4o模型。这种双轨制优化了技术和用户体验,但也带来了命名复杂的挑战。
为何淘汰看似更强的模型?OpenAI解释称,GPT-4.1在多项关键能力上的表现“更优或至少相当”,但成本和延迟显著降低。换言之,GPT-4.1找到了实用的平衡点——对大多数API应用场景而言,性能足够出色,同时比资源消耗更高的GPT-4.5预览版更快、更经济。相较之下,GPT-4.5极其缓慢且价格高昂。与前代相比,新模型价格更低。GPT-4.1输入每百万标记收费2美元,输出每百万标记收费8美元,较GPT-4o的中位查询成本降低了26%。GPT-4.1 mini输入每百万标记收费0.4美元,输出每百万标记收费1.6美元;而GPT-4.1 nano输入每百万标记仅收费0.1美元,输出每百万标记收费0.4美元。相比之下,GPT-4.5的定价高得惊人——通过API输入每百万标记收费75美元,输出每百万标记收费150美元。因此,4.1相对于4o是升级版本,几乎可媲美4.5,但运行成本低得多。
聚焦于API策略,仍有疑问待解:为何不将这一在重要方面优于GPT-4o的模型提供给ChatGPT用户?根据OpenAI的回应,这些研究模型中的诸多改进“正逐步融入ChatGPT最新版本的GPT-4o中”,未来还将有更多功能更新。本质上,ChatGPT的GPT-4o已成为不断演化的“专属品牌”模型,随着时间推移吸收公司各项研究模型的能力。由此形成双轨体系:使用API的开发者获取特定且一致的模型,具备清晰的能力界定;普通ChatGPT用户则依赖一个在幕后持续迭代的单一模型。开发者能够按需挑选最契合自身需求和预算的模型,从4.1、4.1 mini、4.1 nano、4o及其他变种中抉择。而消费者接收的始终是OpenAI推送的任意版本GPT-4o。不过,这并未简化命名。正如一位Hacker News评论者精准指出:“我需要一个人工智能来解读OpenAI的命名规则。”
这样的布局不仅优化了技术路径,也重塑了用户体验。开发者享受定制化服务,而用户获得无缝衔接的流畅交互。或许,命名混乱的问题,正是技术进步的另一面——复杂背后,是创新的代价与智慧的体现。
(以上内容均由Ai生成)