OpenClaw 集成本地 Ollama 与 Qwen WebUI 无响应排查指南
遇到 WebUI 点击聊天没反应的情况,多半是后端网关没连上本地模型,或者环境配置没生效。按下面顺序检查一遍,基本能定位问题。
1. 确认本地模型服务可用
在启动 OpenClaw 之前,先保证 Ollama 或 vLLM 已经跑起来了。直接 curl 一下接口看看返回:
curl http://127.0.0.1:11434/v1/models
如果这里都没数据,后面都白搭。
2. 更新并检查 OpenClaw 版本
有时候旧版本兼容性问题会导致连接失败,建议先升到最新。
npm update openclaw
npm list openclaw
确认版本号符合预期。
3. 配置环境变量与启动网关
这是最容易出错的地方。需要明确指定状态目录和配置文件路径,否则网关可能找不到模型配置。
$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
注意路径里的反斜杠在 PowerShell 里可能需要转义,或者直接改用正斜杠。执行后观察控制台日志,看是否有报错信息。

