OpenCLaw 本地 Ollama 集成配置指南
最近测试 OpenCLaw 的前端版本与 Gateway 版本时发现,如果环境配置不当,WebUI 可能会没有任何反应。作为资深开发者,我们通常建议先确保基础环境的一致性,再逐步排查服务链路。
1. 版本一致性检查
OpenCLaw 的前端与后端(Gateway)版本最好保持同步,否则容易出现接口不兼容的问题。建议先将项目升级到最新稳定版:
npm update openclaw
升级完成后,通过以下命令确认当前安装的具体版本号:
npm list openclaw
例如输出显示 [email protected],说明当前已处于该版本状态。请确保前端和 Gateway 引用的包版本一致。
2. 验证本地 LLM 服务状态
OpenCLaw 依赖本地运行的 LLM 服务(如 vLLM 或 Ollama)。在启动网关前,务必确认服务已正常监听。
以 Ollama 为例,服务地址通常为 http://127.0.0.1:11434/v1。你可以使用 curl 直接测试模型接口是否可用:
curl http://127.0.0.1:11434/v1/models
如果返回 JSON 列表而非连接错误,说明后端服务健康,可以继续进行下一步。
3. 环境变量与网关启动
这是最容易出问题的环节。OpenCLaw 需要明确指定状态目录和配置文件路径,否则可能找不到必要的上下文数据。
在 PowerShell 环境下,设置环境变量并启动 Gateway 的命令如下(请将路径替换为你实际的项目目录):
$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
注意:
- 路径中的反斜杠在字符串中通常需要转义,或者直接使用正斜杠
/。 - 确保
openclaw.json文件确实存在于指定目录下,且包含有效的配置信息。 - 执行命令后观察控制台日志,如果有报错,通常会提示端口占用或配置缺失。
按照上述步骤操作后,大部分因配置缺失导致的无响应问题都能得到解决。如果仍然无法连接,建议检查防火墙设置或尝试更换端口。

