百度发布新AI模型,精确定位图像细节解决复杂问题
快速阅读: 百度发布多模态AI模型ERNIE-4.5-VL-28B-A3B-Thinking,总参数280亿,仅需30亿活跃参数完成推理,支持80GB GPU运行。模型在多模态测试中超越谷歌和OpenAI顶级模型,具备图像思维功能,能动态处理图像细节,已开源许可商用。
百度近期发布了最新的多模态人工智能模型——ERNIE-4.5-VL-28B-A3B-Thinking,这款模型能够将图像深度整合到推理过程中。百度表示,该模型在多个多模态基准测试中表现优异,有时甚至超过了谷歌的Gemini2.5Pro和OpenAI的GPT-5High等顶级商业模型。
尽管ERNIE-4.5-VL-28B-A3B-Thinking的总参数量达到280亿,但由于采用了路由架构,它仅需30亿个活跃参数即可完成推理。得益于这一高效设计,该模型可以在配置有80GB GPU(如Nvidia A100)的单个设备上运行。百度已通过Apache 2.0许可证公开了此模型,允许其免费应用于商业项目。不过,百度声称的性能尚未得到独立验证。
该模型的核心优势在于其“图像思维”功能,能够在推理过程中动态处理图像,突出关键细节。例如,它可以自动放大图像中的蓝色标志,并精确识别上面的文字,如同使用了图像编辑工具。此外,该模型还展示了强大的多模态能力,包括精确定位图像中的人物并返回其坐标、分析电路图解决复杂数学问题、根据图表数据推荐最佳游览时间、从视频中提取字幕并将场景与特定时间戳匹配,以及利用网络图像搜索来识别未知物体。
虽然百度强调了ERNIE-4.5-VL-28B-A3B-Thinking在推理过程中裁剪和处理图像的能力,但这种方法并非首创。早在2025年4月,OpenAI就在其o3和o4-mini模型中引入了类似功能,允许模型将图像直接融入内部思维流程,并在处理视觉任务时运用缩放、裁剪和旋转等原生工具,为类智能体的推理和问题解决能力设定了新的标准。
(以上内容均由Ai生成)