首页/详情

在 macOS 上使用 LM Studio 本地部署 Qwen3‑coder‑next:完整配置与实战指南

Reddit r/LocalLLaMA2026/02/22 19:45机翻/自动摘要/自动分类
5 阅读

内容评分

技术含量
7/10
营销水分
4/10

摘要

本文提供了在配备 MLX 8‑bit、128 GB 内存的 Mac Ultra 上,通过局域网将 Qwen3‑coder‑next 本地部署于 LM Studio 的完整操作指南。包括仅使用官方 qwen-code 仓库启动模型服务、关键的 `settings.json` 配置(必须使用 anthropic 类型)以及性能调优建议。文章强调避免使用非官方 “vibecoding” 改版,并给出实用的加速技巧。

正文

前言

本文记录了在配备 MLX 8‑bit128 GB 内存的 Mac Ultra 上,通过局域网将 Qwen3‑coder‑next 作为本地代码生成代理运行于 LM Studio 的完整步骤。重点在于 LM Studio 的配置文件写法、网络地址设定以及常见坑点,帮助想要摆脱云端 API 限制的开发者快速上手。

关键步骤

  1. 准备模型服务

    • 仅使用官方仓库 https://github.com/QwenLM/qwen-code,克隆后按照 README 启动本地 HTTP 接口(默认端口 1234)。
    • 运行示例(假设已安装依赖):
    git clone https://github.com/QwenLM/qwen-code.git
    cd qwen-code
    python -m qwen_code --host 0.0.0.0 --port 1234
    
    • 该服务兼容 OpenAI‑style 接口,但在 LM Studio 中必须声明为 anthropic 类型,否则会报错。
  2. 编辑 LM Studio 的 settings.json

    {
      "modelProviders": {
        "anthropic": [
          {
            "id": "qwen/qwen3-coder-next",
            "name": "qwen/qwen3-coder-next",
            "baseUrl": "http://192.168.1.100:1234",
            "envKey": "OPENAI_API_KEY"
          }
        ]
      },
      "env": {
        "OPENAI_API_KEY": "none"
      },
      "security": {
        "auth": {
          "selectedType": "anthropic"
        }
      },
      "model": {
        "name": "qwen/qwen3-coder-next"
      },
      "$version": 3,
      "telemetry": {
        "enabled": false,
        "target": "local"
      }
    }
    
    • 关键点modelProviders 必须使用 anthropicenvKey 仍写 OPENAI_API_KEY(值设为 none),否则 LM Studio 会尝试调用 OpenAI 的鉴权。
    • baseUrl 填写本机或局域网 IP 与端口,确保 LM Studio 与模型服务在同一网络段。
  3. 启动 LM Studio 并选择模型

    • 重新加载设置后,在模型列表中即可看到 qwen/qwen3-coder-next,切换为该模型即可开始代码补全、文件阅读、执行等交互。

性能与使用感受

  • 瓶颈:大多数时间消耗在提示(prompt)处理上,即模型生成代码的计算过程。网络延迟几乎可以忽略,主要是 CPU/GPU(MLX)算力限制。
  • 建议
    • 使用 8‑bit 量化(MLX)可以显著降低显存占用;
    • 调整 max_tokenstemperature,避免不必要的长输出;
    • 若有多台机器,可将模型服务放在更强的服务器上,仅通过 LAN 调用。

注意事项

  • 严禁使用非官方的 “vibecoding” 代码仓库,这些社区改版往往缺乏安全审计,容易引入后门或不兼容的改动。
  • 本文所示的 settings.json 仅供 首次本地代码代理 的用户参考,实际项目中请根据安全策略自行加固。

展望

作者计划在明日加入更复杂的代码片段,以评估模型的代码理解深度。若有加速或提升效果的技巧,欢迎在评论区共享。

标签