引言
在 AI 技术爆发的当下,出于数据隐私、定制化需求或离线可用的考虑,本地部署 AI 大模型并接入日常办公软件成为了新的刚需。
本文将带你从零开始,完成以下目标:
- 安装 OpenClaw:一个强大的开源个人 AI 助理框架(前身为 ClawdBot/Moltbot)。
- 部署 Ollama:在本地运行大模型(如 DeepSeek-R1、Llama 3 等),作为 AI 的'大脑'。
- 接入飞书:将你的 AI 助理添加到飞书好友或群聊中,实现随叫随到的智能办公体验。
第一步:环境准备与核心思想
在开始前,我们需要明确技术架构:飞书 → OpenClaw(调度器) → Ollama(本地模型)。
- 操作系统:Windows(建议 WSL2)、macOS 或 Linux。本文以 Windows 11 + WSL2 (Ubuntu 22.04) 为例。
- 硬件要求:
- CPU:4 核以上(推荐 8 核)
- 内存:16GB 以上(若运行 7B-8B 模型,需预留 8-10GB 内存给模型)
- 磁盘:20GB 以上剩余空间。
第二步:部署 Ollama——把大模型'养'在本地
Ollama 是目前最便捷的本地模型运行工具,它支持 Llama 3、DeepSeek-R1、Qwen 2.5 等一系列主流模型。
1. 安装 Ollama
访问 Ollama 官网 下载对应系统的安装包,或使用命令行安装(以 Linux/WSL 为例):
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,验证版本:
ollama --version
并通过 ollama serve 确保服务在后台运行(通常安装后会自动注册为服务)。
2. 拉取并运行模型
根据你的硬件配置选择合适的模型。对于大多数用户,推荐使用 DeepSeek-R1(7B)或 Llama 3.2(3B),兼顾性能与资源占用。
# 运行 DeepSeek-R1(会自动下载)
ollama run deepseek-r1:7b
# 或者运行 Llama 3.2(更轻量)
ollama run llama3.2
出现 Send a message 提示即表示模型启动成功。
注意:记下这个终端,后续 OpenClaw 会通过 API 调用它。
3. 确认 API 可用性
Ollama 默认会在本地 11434 端口开启 API 服务。我们可以用 curl 测试一下:
curl http://localhost:11434/api/generate -d'{ "model": "deepseek-r1:7b", "prompt": "你好,你是谁?", "stream": false }'
看到包含'DeepSeek'或对应模型名的 JSON 返回,说明 Ollama 已经准备就绪。
第三步:安装 OpenClaw——AI 大脑的'躯干'
OpenClaw 负责连接聊天软件(飞书)和 AI 大脑(Ollama),并管理各种工具(Skills)。
1. 安装 Node.js
OpenClaw 需要 Node.js 22.0 或更高版本。
# 以 Ubuntu 为例
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
apt install -y nodejs
node -v

