Meta 发布 Llama 4 系列多模态模型,MoE 架构引领新突破
Gino Notes2025/04/06 08:00机翻/自动摘要/自动分类
4 阅读
内容评分
技术含量
8/10
营销水分
7/10
摘要
Meta 发布 Llama 4 系列多模态模型,包括 Scout、Maverick 和 Behemoth。采用 MoE 架构,显著提升性能、效率和上下文长度,Scout 支持 1000 万 token 上下文处理,Maverick 专注多模态理解与生成,Behemoth 作为教师模型。此次发布代表多模态 AI 技术的重要进展。
正文
Meta 公司近日正式发布了 Llama 4 系列大型语言模型,其中包括两款开源的原生多模态模型:Llama 4 Scout 和 Llama 4 Maverick,以及预告的更强大教师模型 Llama 4 Behemoth。这些模型首次引入了混合专家()架构,显著提升了性能、效率和上下文处理能力。Llama 4 Scout 的可达 100 万个 ,为多模态任务提供了更强大的处理能力。Llama 4 Maverick 则专注于多模态理解与生成,支持文本、图像和音频等多种输入形式。Llama 4 Behemoth 作为教师模型,预计将在训练和优化其他模型方面发挥关键作用。此次发布标志着 Meta 在多模态 AI 领域迈出了重要一步,展示了其在模型架构和性能优化方面的创新。