场景说明
在使用 OpenClaw 结合本地部署的 Ollama 与 Qwen WebUI 时,如果前端界面没有任何反应,通常不是单一环节的问题。作为资深开发者,我们建议按照'环境版本 -> 服务状态 -> 启动配置'的顺序进行排查。
1. 确认组件版本一致性
首先确保本地安装的 OpenClaw 是最新版本,避免旧版网关与新模型接口不兼容。
npm update openclaw
npm list openclaw
执行后查看输出,例如:
2fen@ E:\\2fen
└── [email protected]
版本号需保持最新,若有更新提示请重新安装。
2. 验证本地 LLM 服务健康度
OpenClaw 依赖后端提供推理能力,这里以 Ollama 为例(默认端口 11434)。服务未正常启动是导致无响应的常见原因。 检查服务地址是否可达:
curl http://127.0.0.1:11434/v1/models
若返回模型列表 JSON,说明服务已就绪;若报错 Connection Refused,请检查 Ollama 进程是否存活。
3. 配置环境变量并启动网关
最后一步是运行 OpenClaw 网关进程。注意根据实际路径调整环境变量,特别是 Windows 环境下使用 PowerShell 语法。
$env:OPENCLAW_STATE_DIR="e:\\指定路径\\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\\指定路径\\.openclaw\\openclaw.json"
node ./node_modules/openclaw/dist/index.js gateway
执行上述命令后,观察控制台日志。若没有报错且能正常监听请求,即可尝试在前端发起对话。
以上步骤覆盖了从依赖检查到服务联调的核心流程。若仍无法解决,建议进一步检查防火墙设置或网络代理配置。

