Openclaw 连接本地 Ollama 与 Qwen WebUI 无响应排查指南
遇到 Openclaw 的 WebUI 点击后没有任何反应的情况,通常不是前端本身的问题,而是后端网关与本地 LLM 服务的连接链路出现了中断。下面按优先级梳理排查步骤。
1. 确认本地 LLM 服务状态
Openclaw 依赖本地运行的 Ollama 或 vLLM 服务。如果底层服务没起,网关自然无法返回数据。确保服务已启动且监听在正确端口:
curl http://127.0.0.1:11434/v1/models
如果返回了模型列表 JSON,说明服务正常;若报错 Connection refused,请检查 Ollama 是否真的运行在 11434 端口。
2. 检查 Openclaw 版本
有时候旧版本的网关逻辑与新版前端不兼容,建议先更新到最新稳定版:
npm update openclaw
npm list openclaw
查看输出中的版本号,例如 [email protected],确保没有明显的版本冲突。
3. 配置环境变量并启动 Gateway
这是最关键的一步。需要显式指定状态目录和配置文件路径,避免默认路径下找不到配置。以 Windows PowerShell 为例:
$env:OPENCLAW_STATE_DIR="e:\\指定路径\\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\\指定路径\\.openclaw\\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
注意:请将
e:\指定路径替换为你实际存放.openclaw文件夹的绝对路径。
执行上述命令后,观察终端是否有新的日志输出。如果有报错信息(如端口占用、模型加载失败),根据提示调整即可。如果一切正常但 WebUI 依然无响应,尝试清除浏览器缓存或更换无痕模式重试。

