专题:token-efficiency

按该标签聚合的大模型资讯列表(自动分类与标签提取)。4 篇文章。

媒体AINews2026/03/18 13:445720
MiniMax M2.7:具备自我进化能力的SOTA模型,成本仅为GLM-5的1/3
小米MiMo-V2-Pro:专注API推理,token使用效率显著提升

MiniMax M2.7是具备自我进化能力的SOTA开源模型,在SWE-Pro和Terminal Bench 2任务中分别达到56.22%和57.0%的性能表现。其核心优势在于:1)智能指数50分与GLM-5持平,但成本仅为1/3;2)通过递归机制持续优化技能与架构;3)支持Ollama Cloud等平台部署。小米MiMo-V2-Pro和Cartesia …

媒体AINews2026/02/18 13:447830
Claude Opus/Sonnet 4.6智能指数提升
Qwen 3.5开源并优化推理效率

多款AI模型更新,包括Claude Opus/Sonnet 4.6、Qwen 3.5、GLM-5及Gemini 3.1 Pro。重点在于智能指数提升、推理效率优化、开源模型权重及社区表现。技术报告和讨论揭示了模型在自主性、训练成本和性能上的进展。

社区Reddit r/LocalLLaMA2026/02/16 08:256820

本文提出一种基于Unicode块字符的符号简写语法,用于提升大型语言模型的指令效率。通过非语言化表达任务状态、层级和优先级,该方法显著减少冗余并增强零样本理解能力。初步测试显示其在token效率和上下文稳定性方面表现优异,具有较高的技术创新性和研究价值。