遇到 Openclaw 配合本地 Ollama 和 Qwen WebUI 时完全没有反应的情况,通常需要从环境依赖到服务连通性逐一排查。下面整理了一套验证流程,按顺序执行可快速定位问题所在。
首先,确保 Openclaw 处于最新状态。旧版本可能存在兼容性 Bug,导致无法正确调用后端服务。使用以下命令更新并确认版本:
npm update openclaw
npm list openclaw
接下来,验证本地 LLM 服务是否正常。Openclaw 依赖的 Ollama 服务必须监听在标准端口,且接口可用。检查服务地址是否为 http://127.0.0.1:11434/v1,并通过 curl 测试模型列表接口:
curl http://127.0.0.1:11434/v1/models
如果返回了模型列表,说明底层服务通畅。此时需要配置 Openclaw 的环境变量,确保它知道去哪里读取配置和状态文件。以 PowerShell 为例,设置状态目录和配置文件路径后,直接启动网关进程:
$env:OPENCLAW_STATE_DIR="e:\\指定路径\\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\\指定路径\\.openclaw\\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
注意路径中的反斜杠在 PowerShell 中可能需要转义,或者直接使用正斜杠。如果执行后依然没有反应,请留意终端输出的错误日志,很多时候是端口被占用或模型未加载完成导致的。

