我构建了一个 MCP 服务器,可并行查询 Ollama 和云端 LLM 并让它们互相辩论
Reddit r/LocalLLaMA2026/02/10 16:46机翻/自动摘要/自动分类
5 阅读
摘要
一位开发者构建了一个名为 MCP Rubber Duck 的工具,允许用户同时查询本地 Ollama 模型和多种云端 LLM(如 OpenAI、Gemini、Groq 等),并支持模型之间进行比较、投票或结构化辩论。该工具旨在简化跨不同模型获取和对比答案的流程,尤其关注本地模型与云端模型之间的差异性分析。项目已开源,使用 TypeScript 编写,并提供快速启动命令和 Docker 支持。
正文
大家好,
我一直在通过 Ollama 运行本地模型以及云端 API,厌倦了在不同标签页之间切换来比较答案。因此,我构建了一个 MCP 服务器,可以一次查询多个提供商。
它的功能:
- 指向 Ollama、LM Studio 或任何兼容 OpenAI 的端点
- 在同一查询中混合本地和云端模型(OpenAI、Gemini、Groq、Together AI)
- 并排比较答案,让模型投票选出最佳方案,或运行结构化辩论,由第三方模型进行评判
有趣的部分在于分歧——当你的本地 Llama 和 GPT 给出不同答案时,那通常是出现有趣问题的地方。
快速开始:
npx mcp-rubber-duck
可与 Claude Desktop、Cursor、VS Code 或任何 MCP 客户端配合使用。也支持 Docker。
仓库:https://github.com/nesquikm/mcp-rubber-duck (TypeScript, MIT)
仍有一些粗糙之处。非常欢迎反馈,特别是来自将本地模型作为提供商运行的各位。