OpenClaw 集成本地 llama.cpp 后端配置指南
llama.cpp 兼容 OpenAPI 接口,可作为 OpenClaw 的后端。
添加自定义 Provider
参考添加自定义 Provider 的步骤为 OpenClaw 增加支持。
在修改过程中,需确保模型状态正确。
{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1",

