首页/详情

Google DeepMind 发布 Gemma 4:Apache 2.0 开源权重·多模态·边缘部署

AINews2026/04/02 13:44机翻/自动摘要/自动分类
1 阅读

内容评分

技术含量
8/10
营销水分
5/10

摘要

Google DeepMind 于 2026 年发布 Gemma 4 系列模型,采用 Apache 2.0 开源许可证,提供 31 B dense、26 B MoE 以及两款面向移动/IoT 的轻量模型。全部模型原生支持文本、视觉、音频多模态,具备函数调用与结构化 JSON 输出,并将上下文窗口提升至 64 k token。性能基准显示 Gemma 4 在多项任务上超越同类大模型,边缘模型在 ARM 设备上实现低功耗实时推理,生态配套工具链完善,下载量已突破 4 亿次。

正文

2026 年 4 月 1‑2 日的 AI 新闻聚焦于 Google DeepMind 最新的 Gemma 4 系列模型。Gemma 4 是 DeepMind 在一年内最大幅度的权重开放与功能升级,全部模型均在 Apache 2.0 许可证下发布,显著提升了商业友好度。

模型阵容

  • Gemma‑4‑31B(dense)
  • Gemma‑4‑26B‑MoE(代号 A4B,约 4 B 活跃参数)
  • 两款面向移动/IoT 的轻量模型 E4BE2B(effective 参数量分别约 4 B 与 2 B)

所有模型原生支持文本、视觉和音频三模态,并内置函数调用与结构化 JSON 输出能力,适配长上下文(上下文窗口已提升至 64 k )。

生态落地:DeepMind 强调 Gemma 4 可直接用于推理与代理工作流,特别适配本地和边缘部署场景。官方提供了完整的权重、转换脚本以及与 LangChain、Llama‑Index 等主流工具链的兼容示例,社区已在 GitHub 上贡献了 10 万+ 变体,累计下载量突破 4 亿次。

性能基准:在 MMLU、MMBench、LongChat 等公开基准上,Gemma‑4‑31B 超越 Qwen‑3.5‑72B、Claude‑3.5‑Sonnet,并在多模态检索与音频转写任务中实现 5%‑12% 的相对提升。边缘模型 E4B/E2B 在 ARM‑Neoverse N2 上的推理吞吐率分别达 120 /s 与 210 /s,功耗低于 5 W,满足实时嵌入式应用需求。

社区与生态:Google AI 与 DeepMind 在 X(Twitter)同步发布了多条推文,Jeff Dean 公开了 Gemma 3 的使用数据(4 亿下载、10 万变体),并呼吁开发者基于 Apache 2.0 许可证进行二次创新。相关资源已在 AINews、Latent Space 以及官方 GitHub 统一索引,用户可自行选择邮件订阅频率。

标签