Zhipu AI 发布 GLM-5:7440 亿参数开源大语言模型性能登顶
AINews2026/02/11 13:44机翻/自动摘要/自动分类
4 阅读
内容评分
技术含量
8/10
营销水分
7/10
摘要
Zhipu AI 推出 GLM-5,参数量达 7440 亿,集成 DeepSeek Sparse Attention 技术,性能在多个基准测试中领先,尤其适合办公场景,但受限于计算资源。
正文
Zhipu AI 最新发布了 GLM-5,作为 Opus 系列的最新成员,该模型参数量从 3550 亿提升至 7440 亿,引入了 DeepSeek Sparse Attention 技术,显著提升了长上下文处理效率。GLM-5 在 BrowseComp 任务中取得 SOTA 成绩,同时在 Vending Bench 2 上表现优异,特别适合办公生产力场景。在 GDPVal-AA 基准测试中,其性能超越了 Kimi K2.5。尽管已在 OpenRouter、Modal、DeepInfra 和 Ollama Cloud 等平台部署,但计算资源的限制仍对其推广和定价策略产生影响。GLM-5 支持最长 200K 的和最多 128K 的输出 数量。