专题:moe-architecture

按该标签聚合的大模型资讯列表(自动分类与标签提取)。3 篇文章。

媒体AINews2026/04/03 13:443600
Google发布Gemma 4四款模型
Hermes Agent因内存管理受欢迎

Google发布Gemma 4系列模型(2B‑31B),采用混合专家(MoE)架构提升计算与显存效率,并已通过Unsloth、HF Inference等工具实现生态兼容。开源代理Hermes因内存管理优化受到开发者青睐,迁移自OpenClaw。实际使用中,Gemma 4在部分硬件上表现出色,但在Claude Code等场景仍面临速率和内存瓶颈,兼容性仍需完…

媒体爱范儿2026/03/18 12:339840
乐天发布Rakuten AI 3.0宣称是日本最强AI
实为DeepSeek-V3的日语微调版本

乐天Rakuten AI 3.0被证实为DeepSeek-V3的日语微调版本,参数达7000亿,但核心技术源自中国开源模型。乐天删除MIT协议、伪装为自主研发,引发开源社区强烈质疑。该事件揭示了日本AI产业在基础模型上的技术依赖,凸显透明度与开源伦理在AI发展中的关键作用。

社区Reddit r/LocalLLaMA2026/02/12 20:0830

Ovis 系列多模态大模型(MLLM)发布最新版本 Ovis2.6-30B-A3B。该模型在 Ovis2.5 的基础上,将核心 LLM 骨干网络升级为稀疏混合专家(MoE)架构,旨在以更低的推理成本提供卓越的多模态性能。Ovis2.6-30B-A3B 在长上下文和高分辨率内容理解、基于主动图像分析的视觉推理以及信息密集型文档理解方面均有显著提升。据称,在 …