商汤NEO开源,110数据量媲美顶级多模态模型
快速阅读: 商汤科技与南洋理工大学S-Lab联合发布NEO,实现视觉与语言深层统一,数据效率极高,仅需3.9亿图像文本示例,性能超越Qwen2-VL等模型,多项评测中表现优异。
商汤科技与南洋理工大学S-Lab联合发布并开源了全新的多模态模型架构NEO,通过底层架构的创新,实现了视觉与语言的深层统一,在性能、效率和通用性方面取得了全面突破。
极致数据效率:1/10数据量达到顶尖性能。NEO最显著的突破在于其极高的数据效率——仅需3.9亿图像文本示例,相当于业界同等性能模型1/10的数据量,就能开发出顶尖的视觉感知能力。无需依赖海量数据及额外的视觉编码器,NEO凭借简洁的架构在多项视觉理解任务中追平了Qwen2-VL、InternVL3等顶级模块化旗舰模型。
在MMMU、MMB、MMStar、SEED-I、POPE等多项公开权威评测中,NEO均获得高分,综合性能优于其他原生VLM,真正实现了原生架构的“精度无损”。
从底层打破“拼凑式”设计的桎梏。当前业内主流的多模态模型大多遵循“视觉编码器+投影器+语言模型”的模块化范式。这种基于大语言模型的扩展方式虽实现了图像输入的兼容,但本质上仍以语言为中心,图像与语言的融合仅停留在数据层面。这种“拼凑”式设计不仅学习效率低下,还限制了模型在复杂多模态场景下的处理能力,尤其是在涉及图像细节捕捉或复杂空间结构理解的任务中。
NEO通过在注意力机制、位置编码和语义映射三个关键维度上的底层创新,使模型天然具备统一处理视觉与语言的能力。
两大核心技术创新。原生图块嵌入(Native Patch Embedding):NEO摒弃了离散的图像tokenizer,通过独创的Patch Embedding Layer (PEL) 自底向上构建从像素到词元的连续映射。这种设计能够更精细地捕捉图像细节,从根本上突破了主流模型的图像建模瓶颈。原生多头注意力(Native Multi-Head Attention):针对不同模态的特点,NEO在统一框架下实现了文本token的自回归注意力和视觉token的双向注意力并存。这种设计极大地提高了模型对空间结构关联的利用率,从而更好地支持复杂的图文混合理解与推理。
(以上内容均由Ai生成)