首页/详情

Mercury:基于扩散的超高速代码生成模型

Lobsters AI2026/02/25 18:02机翻/自动摘要/自动分类
3 阅读

内容评分

技术含量
7/10
营销水分
5/10

摘要

Mercury 系列模型采用扩散算法实现并行文本生成,在 H100 GPU 上实现 1,109 tokens/s 的超高速解码。Mini 版在质量评测中与 GPT‑4o、Claude 3.5 Haiku 等主流模型持平,平均延迟仅 25 ms。该工作证明扩散模型可在离散序列上大规模训练,为代码生成等高吞吐任务提供了新的高效路径。

正文

近年来,自回归语言模型的串行解码已成为吞吐量瓶颈。最新研究表明,扩散模型同样可以在离散序列上进行大规模训练,并实现并行生成,从而充分利用现代 GPU 的算力。研究团队基于此提出了两款编码模型——Mercury Coder Mini 与 Mercury Coder Small。Mini 在 NVIDIA H100 上的生成速率达 1,109 tokens/s,Small 为 737 tokens/s,均比现有高效模型快数倍。\n\n在 Copilot Arena 等人类评估平台的测试中,Mini 的生成质量与 GPT‑4o、Claude 3.5 Haiku、Gemini 2.0 Flash Lite 等主流模型相当,平均响应延迟仅 25 ms。其优势主要来源于扩散式并行解码:模型从随机噪声出发,协同优化全部 ,逐步收敛到最终文本,而非逐 递归预测。此机制既提升了计算效率,也让 GPU 的并行能力得到最大化利用。\n\n总体而言,Mercury 系列展示了扩散模型在代码生成任务上的可行性和竞争力,为突破自回归解码的速度上限提供了新思路。

标签