首页/详情

Open Claw 本地模型工具调用与会话溢出修复方案

Reddit r/LocalLLaMA2026/02/09 21:46机翻/自动摘要/自动分类
4 阅读

摘要

本文介绍了一个名为 Local Claw Plus Session Manager 的开源工具,旨在解决本地 AI 代理在运行过程中遇到的上下文溢出和工具调用格式不兼容问题。该工具通过“会话自动驾驶”功能监控并清除过大的会话文件,防止代理崩溃;同时,“vLLM 工具调用代理”能将从特定标签或 JSON 中提取的工具调用转换为 OpenAI 标准格式,确保子代理正常工作。该方案支持 Linux 和 Windows 系统,并提供 GitHub 链接供用户下载和使用。

正文

我们通过 OpenClaw 在本地硬件上运行自主 AI 代理(使用 Qwen2.5-Coder-32B 和 vLLM),但遇到了两个令人抓狂的问题:

  1. 上下文溢出崩溃:在 Discord 上长时间运行的代理会累积会话历史记录在会话文件中,直到超出模型的上下文窗口。代理无法自行清除会话,网关也不会自动轮换。每次都会出现“上下文溢出:提示对模型过大”的错误,代理就此失效。

为此,我们构建了 Local Claw Plus Session Manager 来解决这两个问题:

  • 会话自动驾驶 (Session Autopilot):一个守护进程,通过定时器监控会话文件大小,并在文件超出上下文限制前将其清除。它会从 sessions.json 中移除会话引用,以便网关无缝创建新会话。代理甚至不会察觉,只会获得一个干净的上下文窗口。
  • vLLM 工具调用代理 (vLLM Tool Call Proxy):位于 OpenClaw 和 vLLM 之间,拦截响应,从 <tools> 标签(和裸 JSON)中提取工具调用,并将其转换为标准的 OpenAI tool_calls 格式。支持流式和非流式处理。您的子代理将立即开始工作。

只需一个配置文件,一个安装命令。支持 Linux (systemd) 和 Windows (Task Scheduler)。

GitHub:https://github.com/Lightheartdevs/Local-Claw-Plus-Session-Manager

MIT 许可,免费使用。源于真实的生产环境痛点。

如果您运行类似的设置,我很乐意回答问题。

标签