引言
在追求数据隐私和定制化的当下,将本地大模型接入日常办公软件已成为刚需。本文从零开始,演示如何安装 OpenClaw 开源框架,部署 Ollama 本地模型,并接入飞书机器人,打造随叫随到的智能助手。
环境准备
架构逻辑是:飞书 → OpenClaw(调度器) → Ollama(本地模型)。 系统建议 Windows 11 + WSL2 (Ubuntu 22.04),macOS 或 Linux 均可。硬件方面,CPU 建议 4 核以上,内存 16GB 起步(运行 7B-8B 模型需预留 8-10GB),磁盘剩余空间 20GB。
部署 Ollama
Ollama 是运行本地模型的高效工具,支持 Llama 3、DeepSeek-R1 等。
安装服务
访问官网下载或使用命令行安装(以 Linux/WSL 为例):
curl -fsSL https://ollama.com/install.sh | sh
验证版本并启动服务:
ollama --version
ollama serve
拉取模型
根据硬件选择模型,推荐 DeepSeek-R1 (7B) 或 Llama 3.2 (3B)。
ollama run deepseek-r1:7b
# 或
ollama run llama3.2
出现 Send a message 提示即表示成功。记下终端,后续 OpenClaw 将通过 API 调用它。
测试 API
Ollama 默认监听 11434 端口。用 curl 测试连通性:
curl http://localhost:11434/api/generate -d'{ "model": "deepseek-r1:7b", "prompt": "你好,你是谁?", "stream": false }'
返回包含模型名的 JSON 即代表就绪。
安装 OpenClaw
OpenClaw 负责连接聊天软件与 AI 大脑。
前置依赖
需要 Node.js 22.0 或更高版本。
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt-get install -y nodejs
node -v
一键安装
官方脚本会自动处理大部分配置。
curl -fsSL https://openclaw.bot/install.sh | bash
执行初始化向导,注意选择'Other/OpenAI Compatible'作为模型源,API 地址填 http://localhost:11434/v1/,Key 随意填写(如 ollama),模型名对应下载的模型。通信渠道先跳过,稍后手动配置。
验证状态
openclaw gateway start
openclaw status
访问 http://127.0.0.1:18789 应能看到 Web 控制台。
配置飞书应用
这是让 AI'落地'的关键。
创建应用
登录飞书开发者后台,创建企业自建应用,记录 App ID 和 App Secret。
权限与事件
添加'机器人'能力,开通必要权限:
- 相关收发权限

