OpenClaw 在 Linux 下配置本地 Ollama 实战指南
利用 OpenClaw 结合本地部署的 Ollama 模型,可以构建一个完全私有化的 AI 智能体。下面分享一套在 Linux 环境下,通过局域网连接本地 Ollama 服务的完整部署方案。
环境准备
确保你的网络拓扑满足以下条件:
- 机器 A(运行 OpenClaw):CentOS 8 或类似 Linux 发行版,已安装 Node.js 22+,npm 源已切换为淘宝镜像。
- 机器 B(运行 Ollama):局域网内任意机器,Ollama 服务已启动且模型下载完毕。
验证 Ollama 是否可用,可以在机器 A 上执行:
curl http://local.ollama.host:11434/v1/models
如果返回了模型列表,说明网络连通性没问题。
安装与初始化
推荐使用 npm 全局安装 OpenClaw,这样方便后续调用命令行工具。
# 全局安装
npm install -g openclaw@latest
# 或者使用 pnpm
pnpm add -g openclaw@latest
# 安装守护进程并初始化服务
openclaw onboard --install-daemon
执行 onboard 命令后,会进入交互式引导。这里有一些建议:
- Workspace:默认
~/clawd即可,也可按需修改。 - Channel:暂时跳过,后续再配置飞书插件。
- Provider:先跳过,稍后手动配置本地 Ollama。
- Model:随便选一个占位,不影响后续配置。
- Skill & Gateway:保持默认。
安装完成后,系统会生成 SSH 连接链接和 WebUI 访问地址,记下这些信息以便后续调试。
配置本地模型 Provider
核心步骤是修改配置文件,让 OpenClaw 指向局域网内的 Ollama 服务。编辑 ~/.openclaw/openclaw.json:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://local.ollama.host:11434/v1",
"apiKey": "ollama-local",
"api"


