Microsoft 将 OpenAI o3 和 o4-mini 模型引入 Azure 和 GitHub
快速阅读: 据《Neowin.net》称,OpenAI发布新推理模型O3和O4-Mini,性能优于O1和O3-Mini。微软宣布这些模型已上线Azure AI工坊,支持视觉功能且价格公布。Azure还推出新音频模型,GitHub Copilot集成O3和O4-Mini,支持多种应用场景和混合模型开发。
今日早些时候,OpenAI 宣布发布其最新的推理模型,分别是 O3 和 O4-Mini。与之前的 O1 和 O3-Mini 相比,这些新模型在性能上实现了显著提升。微软今天宣布,O3 和 O4-Mini 模型现已在 Azure AI 工坊的 Azure 开放人工智能服务中上线。O3 模型的价格为每百万输入令牌 10 美元,每百万输出令牌 40 美元;而 O4-Mini 模型的价格则为每百万输入令牌 1.10 美元,每百万输出令牌 4.40 美元。
这两款新模型如今已具备视觉功能,支持涉及图像输入的应用程序。视觉分析功能已在 Responses API 和 Chat Completions API 中得到支持。首次,这两个推理模型均配备了完整的工具支持以及并行工具调用功能。
除上述新推理模型外,Azure 开放人工智能服务还在 Azure AI 工坊的东美2区域推出了新的音频模型:GPT-4o-Transcribe(转录)、GPT-4o-Mini-Transcribe(迷你转录)以及 GPT-4o-Mini-TTS(迷你文本转语音)。GitHub 宣布,O3 和 O4-Mini 模型现已在 GitHub Copilot 和 GitHub 模型中可用。其中,O4-Mini 模型正在面向所有付费的 GitHub Copilot 计划推出,而 O3 模型则面向企业版和 Pro+ 版计划推出。部署完成后,用户可通过 Visual Studio Code 的模型选择器或在 GitHub.com 的 GitHub Copilot Chat 中选择这些新模型。对于企业版 Copilot 用户,管理员需要通过 Copilot 设置中的新策略来启用这些新模型。此外,这些新的 O3 和 O4-Mini 模型同样适用于 GitHub 模型,从而帮助开发者更轻松地探索、构建和部署基于这些模型的人工智能功能。开发者还可以尝试将它们与其他微软及第三方模型相结合使用。
(以上内容均由Ai生成)