首页/详情

MiniMax M2.7:成本仅为GLM-5三分之一的SOTA开源智能体模型

AINews2026/03/18 13:44机翻/自动摘要/自动分类
3 阅读

内容评分

技术含量
7/10
营销水分
5/10

摘要

MiniMax M2.7是具备自我进化能力的SOTA开源模型,在SWE-Pro和Terminal Bench 2任务中分别达到56.22%和57.0%的性能表现。其核心优势在于:1)智能指数50分与GLM-5持平,但成本仅为1/3;2)通过递归机制持续优化技能与架构;3)支持Ollama Cloud等平台部署。小米MiMo-V2-Pro和Cartesia Mamba-3分别在API效率和推理优化领域取得突破,共同推动AI系统从提示工程向系统架构演进。

正文

MiniMax M2.7是本次发布的重点模型,被定义为具备「自我进化能力」的架构。该模型在SWE-Pro任务中取得56.22%、Terminal Bench 2任务中达到57.0%的优异成绩,与Sonnet 4.6持平。其核心创新在于通过递归机制持续优化自身技能、记忆容量与架构性能。根据《Artificial Analysis》评测,MiniMax M2.7在成本-性能比上处于行业领先水平:智能指数达50分(与GLM-5相当),但部署成本仅为后者的1/3。模型可通过Ollama Cloud、OpenRouter等平台接入。

小米MiMo-V2-Pro是一款专注API推理的模型,使用效率显著。Cartesia的Mamba-3则采用Qwen3.5与Kimi Linear混合架构,专为推理密集型场景优化。行业分析指出,当前AI系统设计正从单纯依赖转向系统架构优化,DSPy等工具在执行环境、反馈循环等组件协同中发挥关键作用。

标签