上海AI实验室发布多模态大模型书生·万象 InternVL3.5
快速阅读: 上海人工智能实验室发布多模态大模型InternVL3.5,涵盖1B至241B参数,刷新开源模型性能标准,推理性能显著提升,支持多种任务,提供不同尺寸模型满足各类需求。
8月31日,上海人工智能实验室发布多模态大模型书生·万象InternVL3.5。该模型采用创新的级联式强化学习、动态视觉分辨率路由与解耦部署架构,提升了推理能力、部署效率与通用能力。InternVL3.5涵盖1B至241B各尺寸参数的全量级版本,刷新了开源模型性能标准,在多种任务上达到领先水平。
InternVL3.5的旗舰模型InternVL3.5-241B-A28B在多学科推理基准MMMU中获得77.7分,多模态通用感知基准MMStar和OCRBench分别取得77.9分和90.7分,超越GPT-5的75.7分和80.7分。文本推理基准AIME25和MMLU-Pro分别达到75.6和81.3分,全面领先现有开源多模态大模型。依托级联式强化学习框架,全系列模型推理性能比上一代平均提升16.0分。其中,InternVL3.5-241B-A28B综合推理性能达到66.9分,超越上一代模型的54.6分及Claude-3.7-Sonnet的53.9分,在数学推理、逻辑推理等复杂任务中表现出色。
借助创新的视觉分辨率路由与解耦部署框架,38B模型在896分辨率下的响应速度大幅提升,单次推理延迟由369毫秒缩短至91毫秒,提升约4倍。同时,轻量化的InternVL3.5-Flash在将视觉序列长度减少50%的情况下,仍能保持接近100%的性能水平。
InternVL3.5还增强了GUI智能体、具身智能体、SVG图形理解与生成等智能体核心能力,在ScreenSpot GUI定位、VSI-Bench空间推理、SGP-Bench矢量图理解等任务中超越主流开源模型。
InternVL3.5提供10亿至2410亿参数共九种尺寸模型,覆盖不同资源需求场景,包括稠密模型和专家混合模型,是首个支持GPT-OSS语言模型基座的开源多模态大模型。官方提供了使用`transformers`运行`InternVL3.5-8B`的示例代码,模型最多可以在单张A100 GPU上部署,而38B模型需要2张A100 GPU,235B模型则需要8张A100 GPU。
ms-swift支持对InternVL3.5系列模型进行训练。ms-swift是魔搭社区提供的大模型与多模态大模型训练部署框架。用户可以将数据准备成特定格式进行自定义数据集微调。训练完成后,可以使用相应命令进行推理,并将模型推送到ModelScope。
InternVL3.5的发布标志着多模态大模型技术的又一重要进展,为研究人员和开发者提供了强大工具,推动多模态人工智能的发展。
代码开源/模型使用方法:https://github.com/OpenGVLab/InternVL
模型合集:https://www.modelscope.cn/collections/InternVL35-Full-3871e58bf21349
在线体验:https://chat.intern-ai.org.cn/
(以上内容均由Ai生成)