在 macOS 上使用 LM Studio 本地部署 Qwen3‑coder‑next:完整配置与实战指南
Reddit r/LocalLLaMA2026/02/22 19:45机翻/自动摘要/自动分类
5 阅读
内容评分
技术含量
7/10
营销水分
4/10
摘要
本文提供了在配备 MLX 8‑bit、128 GB 内存的 Mac Ultra 上,通过局域网将 Qwen3‑coder‑next 本地部署于 LM Studio 的完整操作指南。包括仅使用官方 qwen-code 仓库启动模型服务、关键的 `settings.json` 配置(必须使用 anthropic 类型)以及性能调优建议。文章强调避免使用非官方 “vibecoding” 改版,并给出实用的加速技巧。
正文
前言
本文记录了在配备 MLX 8‑bit、128 GB 内存的 Mac Ultra 上,通过局域网将 Qwen3‑coder‑next 作为本地代码生成代理运行于 LM Studio 的完整步骤。重点在于 LM Studio 的配置文件写法、网络地址设定以及常见坑点,帮助想要摆脱云端 API 限制的开发者快速上手。
关键步骤
-
准备模型服务
- 仅使用官方仓库
https://github.com/QwenLM/qwen-code,克隆后按照 README 启动本地 HTTP 接口(默认端口 1234)。 - 运行示例(假设已安装依赖):
git clone https://github.com/QwenLM/qwen-code.git cd qwen-code python -m qwen_code --host 0.0.0.0 --port 1234- 该服务兼容 OpenAI‑style 接口,但在 LM Studio 中必须声明为 anthropic 类型,否则会报错。
- 仅使用官方仓库
-
编辑 LM Studio 的
settings.json{ "modelProviders": { "anthropic": [ { "id": "qwen/qwen3-coder-next", "name": "qwen/qwen3-coder-next", "baseUrl": "http://192.168.1.100:1234", "envKey": "OPENAI_API_KEY" } ] }, "env": { "OPENAI_API_KEY": "none" }, "security": { "auth": { "selectedType": "anthropic" } }, "model": { "name": "qwen/qwen3-coder-next" }, "$version": 3, "telemetry": { "enabled": false, "target": "local" } }- 关键点:
modelProviders必须使用anthropic,envKey仍写OPENAI_API_KEY(值设为none),否则 LM Studio 会尝试调用 OpenAI 的鉴权。 baseUrl填写本机或局域网 IP 与端口,确保 LM Studio 与模型服务在同一网络段。
- 关键点:
-
启动 LM Studio 并选择模型
- 重新加载设置后,在模型列表中即可看到
qwen/qwen3-coder-next,切换为该模型即可开始代码补全、文件阅读、执行等交互。
- 重新加载设置后,在模型列表中即可看到
性能与使用感受
- 瓶颈:大多数时间消耗在提示(prompt)处理上,即模型生成代码的计算过程。网络延迟几乎可以忽略,主要是 CPU/GPU(MLX)算力限制。
- 建议:
- 使用 8‑bit 量化(MLX)可以显著降低显存占用;
- 调整
max_tokens与temperature,避免不必要的长输出; - 若有多台机器,可将模型服务放在更强的服务器上,仅通过 LAN 调用。
注意事项
- 严禁使用非官方的 “vibecoding” 代码仓库,这些社区改版往往缺乏安全审计,容易引入后门或不兼容的改动。
- 本文所示的
settings.json仅供 首次本地代码代理 的用户参考,实际项目中请根据安全策略自行加固。
展望
作者计划在明日加入更复杂的代码片段,以评估模型的代码理解深度。若有加速或提升效果的技巧,欢迎在评论区共享。