OpenClaw 本地化部署指南
在本地构建 AI Agent 时,结合局域网内的 Ollama 服务能实现完全私有化的模型调用。本文介绍如何在 Linux 环境下安装 OpenClaw,并配置其接入本地运行的 Ollama 模型,同时集成飞书机器人功能。
环境准备
确保你的开发机器满足以下条件:
- 操作系统:Linux(本文以 CentOS 8 为例)
- Node.js:已安装 Node 22+ 版本,建议更换 npm 源以提升下载速度
- Ollama 服务:已在局域网另一台机器 B 上部署并运行,且模型已下载
验证 Ollama 服务是否可用,可在终端执行:
curl http://local.ollama.host:11434/v1/models
若返回模型列表信息,说明服务正常。
安装与初始化
使用 npm 全局安装 OpenClaw 工具:
npm install -g openclaw@latest
# 或者使用 pnpm
pnpm add -g openclaw@latest
安装完成后,启动服务守护进程:
openclaw onboard --install-daemon
首次运行会进入引导界面,按提示操作即可:
workspace:默认路径为~/clawd,可按需修改channel:暂时跳过,后续可配置飞书插件provider:暂时跳过,稍后手动配置本地 Ollamamodel:任意选择一个模型skill:跳过Gateway:保持默认
完成引导后,系统会生成 SSH 连接链接和 WebUI 访问地址。
接入本地模型
要使用本地 Ollama 作为后端,需要编辑配置文件。打开 ~/.openclaw/openclaw.json,重点修改 models 和 agents 部分。
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://local.ollama.host:11434/v1",
"apiKey": "ollama-local",
"api"


