OpenClaw 对接本地 Ollama 无响应排查指南
遇到 OpenClaw 前端与后端 Gateway 对接本地 Ollama 服务时完全没有反应的情况,通常需要从版本一致性、服务存活状态以及启动参数三个维度进行排查。以下是经过验证的调试流程。
1. 确认版本一致性
首先确保你正在使用的 OpenClaw 前端版本与 Gateway 版本保持同步。如果两者不匹配,可能会导致协议解析失败。建议先升级到最新稳定版:
npm update openclaw
升级完成后,通过以下命令核对当前安装的版本号,确认是否已更新成功:
npm list openclaw
输出示例中应显示类似 [email protected] 的版本信息,确保路径下的依赖包是预期的。
2. 验证本地 LLM 服务状态
OpenClaw 本身只是一个调度层,核心在于后端的 Ollama 或 vLLM 服务是否正常。在尝试连接前,务必确认服务已启动且端口监听正常。
检查服务地址是否为预期的 http://127.0.0.1:11434/v1。你可以直接使用 curl 请求模型列表接口来测试连通性:
curl http://127.0.0.1:11434/v1/models
如果返回包含模型信息的 JSON 数据,说明本地推理服务是可用的;若报错或无响应,则问题出在 Ollama 服务本身,需优先解决该服务的问题。
3. 正确启动 Gateway
当环境和服务都就绪后,启动 OpenClaw Gateway 时需要指定正确的状态目录和配置文件路径。这能避免配置加载错误导致的静默失败。
在 PowerShell 环境下(如 Windows),可以按以下方式设置环境变量并启动:
$env:OPENCLAW_STATE_DIR="e:\\指定路径\\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\\指定路径\\.openclaw\\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
注意路径中的反斜杠需要转义,或者直接替换为正斜杠。执行上述命令后,观察控制台日志,确认 Gateway 进程已成功绑定到对应端口,此时再尝试从前端发起对话,通常即可恢复正常交互。

