Qwen‑Code 在 VSCode 中的集成现状与原生性能评测
内容评分
摘要
Qwen‑Code 是阿里云开源的代码生成模型,基准通过率约 45%~55%,8 GB 显存即可运行。官方尚未提供 VSCode 插件,社区也未出现成熟的集成方案。想在编辑器中使用,需要自行部署模型服务(示例命令已给出),再通过通用的 VSCode 插件(如 REST Client)对接。文章提供了快速部署步骤并指出目前的集成现状。
正文
Qwen‑Code 是由阿里云·通义千问团队开源的代码生成,代码仓库位于 https://github.com/QwenLM/qwen-code。模型本身提供了多语言代码补全、单元测试生成以及错误定位等功能,官方基准在 HumanEval、MBPP 等数据集上可达 45%~55% 的通过率,算力需求约为 8 GB 显存(FP16)即可运行。
截至目前(2024 年底),社区尚未出现官方或第三方的 VSCode 插件直接封装 Qwen‑Code 的 API。开发者若想在编辑器中使用该模型,需要自行搭建后端服务(例如使用 FastAPI 将模型包装为 REST 接口),然后在 VSCode 中通过 settings.json 配置自定义的 LSP(Language Server Protocol)或使用已有的 “ChatGPT‑like” 插件指向该接口。
下面给出一个最小化的本地部署与 VSCode 调用示例:
# 1. 克隆仓库并安装依赖
git clone https://github.com/QwenLM/qwen-code.git
cd qwen-code
pip install -r requirements.txt
# 2. 启动模型服务(假设使用 torch + transformers)
python -m qwen_code.serve --model_path ./models/qwen-code-7b --port 8000
随后在 VSCode 中安装 “REST Client” 或 “ChatGPT‑Assistant” 等插件,将请求 URL 设置为 http://localhost:8000/completions,即可在编辑器里获得代码补全。
如果你不想自行部署,也可以关注社区的 GitHub Discussions 与 Discord 频道,已有开发者在尝试基于 vscode-extension-sample 编写专属插件,但仍处于实验阶段。
结论:Qwen‑Code 的原生性能在公开基准上表现中规中矩,适合作为本地代码助手;但截至目前尚无成熟的 VSCode 集成方案,想要使用仍需自行搭建后端服务并通过通用插件对接。