Ovis2.6-30B-A3B 多模态大模型发布:MoE 架构加持,视觉理解与长文本能力超越Qwen3-VL
Reddit r/LocalLLaMA2026/02/12 20:08机翻/自动摘要/自动分类
3 阅读
摘要
Ovis 系列多模态大模型(MLLM)发布最新版本 Ovis2.6-30B-A3B。该模型在 Ovis2.5 的基础上,将核心 LLM 骨干网络升级为稀疏混合专家(MoE)架构,旨在以更低的推理成本提供卓越的多模态性能。Ovis2.6-30B-A3B 在长上下文和高分辨率内容理解、基于主动图像分析的视觉推理以及信息密集型文档理解方面均有显著提升。据称,在 30B-A3B 规模的模型中,Ovis2.6-30B-A3B 已成为新的最佳视觉模型,其综合表现优于 Qwen3-VL-30B-A3B,为开发者和研究人员提供了更高效、更强大的多模态处理能力。
正文
Ovis 系列多模态(MLLM)迎来最新进展,正式发布 Ovis2.6-30B-A3B。该模型在 Ovis2.5 的坚实基础上进行了重大升级,其核心 骨干网络已全面升级为稀疏混合专家(Mixture-of-Experts, )架构。这一架构革新不仅显著提升了多模态性能,还大幅降低了模型服务成本。
Ovis2.6-30B-A3B 在多项关键能力上实现了显著飞跃,包括:长上下文和高分辨率内容的理解能力、通过主动图像分析实现的视觉推理能力,以及对信息密集型文档的深度理解能力。据称,Ovis2.6-30B-A3B 已成为 30B-A3B 规模下新的最佳视觉模型,其性能表现优于 Qwen3-VL-30B-A3B。