Openclaw 连接本地 Ollama 及 Qwen WebUI 无响应排查
在集成 Openclaw 与本地大模型服务时,常遇到 WebUI 点击发送后无反馈的情况。这通常涉及版本兼容性、服务端口监听或环境变量配置问题。以下是一套经过验证的排查流程。
1. 环境版本核对
确保 Openclaw 处于最新稳定版,避免旧版协议不匹配导致通信失败。
npm update openclaw
npm list openclaw
执行后检查输出,确认当前版本号符合预期(例如 [email protected])。若版本过旧,建议先升级再测试。
2. 本地 LLM 服务健康检查
在启动网关前,必须确认后端 LLM 服务已正常启动且端口可访问。常见的本地服务包括 Ollama 或 vLLM。
curl http://127.0.0.1:11434/v1/models
- 成功:返回包含模型列表的 JSON 数据。
- 失败:检查防火墙设置或服务进程是否存活,确保端口未被占用。
3. 配置与启动网关
Openclaw 依赖特定的状态目录和配置文件路径。在 Windows PowerShell 中设置环境变量后启动网关,注意路径格式的正确性。
$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
提示:路径中的反斜杠可能需要转义,或直接使用正斜杠
/。执行后观察控制台日志,确认 Gateway 成功绑定端口并监听请求。
总结
按上述步骤逐一排查,大部分连接无响应问题均可定位。核心在于确保前后端通信链路畅通,以及环境变量指向正确的配置根目录。若仍无法解决,建议检查系统日志或尝试更换网络代理模式。

