引言
在 AI 技术爆发的当下,我们不再满足于使用公用的 ChatGPT 或 Claude。出于数据隐私、定制化需求或离线可用的考虑,本地部署 AI 大模型并接入日常办公软件成为了新的刚需。本文将带你从零开始,完成以下目标:安装 OpenClaw(一个强大的开源个人 AI 助理框架),部署 Ollama(在本地运行大模型),以及接入飞书,实现随叫随到的智能办公体验。
环境准备与核心思想
开始前,我们需要明确技术架构:飞书 → OpenClaw(调度器) → Ollama(本地模型)。 操作系统建议 Windows(配合 WSL2)、macOS 或 Linux。本文以 Windows 11 + WSL2 (Ubuntu 22.04) 为例。 硬件要求方面,CPU 建议 4 核以上(推荐 8 核),内存 16GB 以上(若运行 7B-8B 模型,需预留 8-10GB 给模型),磁盘保留 20GB 以上空间。
部署 Ollama——把大模型'养'在本地
Ollama 是目前最便捷的本地模型运行工具,支持 Llama 3、DeepSeek-R1、Qwen 2.5 等一系列主流模型。
1. 安装 Ollama
访问官网下载对应系统的安装包,或使用命令行安装(以 Linux/WSL 为例):
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,验证版本:
ollama --version
并通过 ollama serve 确保服务在后台运行(通常安装后会自动注册为服务)。
2. 拉取并运行模型
根据你的硬件配置选择合适的模型。对于大多数用户,推荐使用 DeepSeek-R1(7B)或 Llama 3.2(3B),兼顾性能与资源占用。
# 运行 DeepSeek-R1(会自动下载)
ollama run deepseek-r1:7b
# 或者运行 Llama 3.2(更轻量)
ollama run llama3.2
出现 Send a message 提示即表示模型启动成功。注意记下这个终端,后续 OpenClaw 会通过 API 调用它。
3. 确认 API 可用性
Ollama 默认会在本地 11434 端口开启 API 服务。我们可以用 curl 测试一下:
curl http://localhost:11434/api/generate -d'{ "model": "deepseek-r1:7b", "prompt": "你好,你是谁?", "stream": false }'
看到包含'DeepSeek'或对应模型名的 JSON 返回,说明 Ollama 已经准备就绪。
安装 OpenClaw——AI 大脑的'躯干'
OpenClaw 负责连接聊天软件(飞书)和 AI 大脑(Ollama),并管理各种工具(Skills)。
1. 安装 Node.js
OpenClaw 需要 Node.js 22.0 或更高版本。
# 以 Ubuntu 为例
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
# 检查版本
node -v
2. 一键安装 OpenClaw
官方提供了一键安装脚本,会自动处理大部分配置。
curl -fsSL https://openclaw.bot/install.sh | bash
安装完成后,执行初始化向导。注意:最新版的向导已经支持直接配置飞书和模型了,非常方便!

