问题背景
在集成 OpenCLaw 前端与本地推理服务时,偶尔会遇到 WebUI 点击发送后没有任何反应的情况。这通常不是单一环节的问题,而是涉及版本一致性、后端服务状态以及环境变量配置的综合排查过程。
1. 确认版本一致性
首先,确保本地的 OpenCLaw 包是最新版本,且前端与 Gateway 版本匹配。过时的依赖可能导致接口协议不兼容。
npm update openclaw
npm list openclaw
执行后检查输出,例如:
2fen@ E:\2fen
└── openclaw@2026.2.22
如果版本号不一致或显示异常,建议重新安装或清理缓存后再试。
2. 验证本地 LLM 服务状态
WebUI 无响应往往是因为无法连接到后端模型服务。请确认 Ollama(或 vLLM)服务已正常启动并监听指定端口。
使用 curl 测试 API 连通性:
curl http://127.0.0.1:11434/v1/models
若返回 JSON 列表,说明服务可用;若连接拒绝,请检查防火墙设置或服务是否真的在运行。注意,部分教程中提到的 vllmOllama 可能是指代特定封装,实际调试时请以标准 Ollama 地址为准。
3. 配置环境变量与路径
OpenCLaw 的网关模式对路径非常敏感。如果未正确指定状态目录和配置文件路径,程序可能无法加载必要的上下文。
在 PowerShell 环境下,设置如下环境变量:
$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"
$env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json"
提示:请将
e:\指定路径替换为你实际的磁盘路径,避免使用包含特殊字符的路径。
4. 启动 Gateway 进程
完成上述准备后,直接运行网关入口脚本。这一步是将前端请求转发至本地模型的关键。
node ./node_modules/openclaw/dist/index.js gateway
观察控制台日志,若无报错且能正常打印模型信息,则说明网关已就绪。此时再刷新 WebUI 页面,尝试发起对话。
总结
排查此类问题的核心思路是:先通后端,再配环境,最后跑流程。按照以上步骤逐一核对,通常能解决大部分因配置缺失或服务不可达导致的无响应问题。

