首页/详情

Zhipu AI 发布 GLM-5:7440 亿参数开源大语言模型性能登顶

AINews2026/02/11 13:44机翻/自动摘要/自动分类
5 阅读

内容评分

技术含量
8/10
营销水分
7/10

摘要

Zhipu AI 发布 GLM-5,参数达 7440 亿,集成 Sparse Attention 技术,性能在多个基准测试中领先,尤其适合办公场景,已在多个平台上线,但受限于资源,推广仍具挑战。

正文

Zhipu AI 最新发布了其新一代大语言模型 GLM-5,参数规模从 3550 亿扩展至 7440 亿,显著提升了模型的表达能力和处理复杂任务的能力。GLM-5 集成了 DeepSeek Sparse Attention 技术,优化了长上下文处理的效率,使其在 BrowseComp 任务中达到 SOTA(当前最佳)水平。在 Vending Bench 2 任务中,该模型表现出色,特别适合提升办公生产力。此外,GLM-5 在 GDPVal-AA 基准测试中超越了 Kimi K2.5,展示了其在实际应用中的竞争力。尽管 GLM-5 已在 OpenRouter、Modal、DeepInfra 和 Ollama Cloud 等平台上线,但受限于计算资源,其推广和定价仍面临挑战。GLM-5 支持最长 200K 的和最多 128K 的输出 数量,为开发者提供了更强大的工具。

标签