Openclaw +本地 Ollama +Qwen webUI chat 没有任何反应

测试openclaw 的前端版本,和openclaw gateway 版本是否一致;

通常将 openclaw 升级到最新版本

npm update openclaw

npm list openclaw

2fen@ E:\2fen
└── [email protected]

确保本地 llm 服务正常运行,

启动vllmOllama服务已成功启动!

- 服务地址 : http://127.0.0.1:11434/v1

测试本地llm 运行状态:

curl http://127.0.0.1:11434/v1/models

$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"; $env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json";  node ./node_modules/openclaw/dist/index.js gateway

用以上命令直接在指定位置运行 openclaw gateway

Could not load content