引言
在 AI 技术爆发的当下,我们不再满足于使用公用的 ChatGPT 或 Claude。出于数据隐私、定制化需求或离线可用的考虑,本地部署 AI 大模型并接入日常办公软件成为了新的刚需。
本文将带你从零开始,完成以下目标:
- 安装 OpenClaw:一个强大的开源个人 AI 助理框架(前身为 ClawdBot/Moltbot)。
- 部署 Ollama:在本地运行大模型(如 DeepSeek-R1、Llama 3 等),作为 AI 的'大脑'。
介绍如何搭建私有 AI 助理。步骤包括:部署 Ollama 本地运行大模型(如 DeepSeek-R1);安装基于 Node.js 的 OpenClaw 框架;在飞书开放平台创建应用并配置权限;最后通过 onboard 或手动命令将飞书机器人接入 OpenClaw,实现本地模型与办公软件联动,支持指令执行与智能对话。
在 AI 技术爆发的当下,我们不再满足于使用公用的 ChatGPT 或 Claude。出于数据隐私、定制化需求或离线可用的考虑,本地部署 AI 大模型并接入日常办公软件成为了新的刚需。
本文将带你从零开始,完成以下目标:
在开始前,我们需要明确技术架构:飞书 → OpenClaw(调度器) → Ollama(本地模型)。
Ollama 是目前最便捷的本地模型运行工具,它支持 Llama 3、DeepSeek-R1、Qwen 2.5 等一系列主流模型。
访问 Ollama 官网 下载对应系统的安装包,或使用命令行安装(以 Linux/WSL 为例):
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,验证版本:
ollama --version
并通过 ollama serve 确保服务在后台运行(通常安装后会自动注册为服务)。
根据你的硬件配置选择合适的模型。对于大多数用户,推荐使用 DeepSeek-R1(7B)或 Llama 3.2(3B),兼顾性能与资源占用。
# 运行 DeepSeek-R1(会自动下载)
ollama run deepseek-r1:7b
# 或者运行 Llama 3.2(更轻量)
ollama run llama3.2
出现 Send a message 提示即表示模型启动成功。
注意:记下这个终端,后续 OpenClaw 会通过 API 调用它。
Ollama 默认会在本地 11434 端口开启 API 服务。我们可以用 curl 测试一下:
curl http://localhost:11434/api/generate -d'{ "model": "deepseek-r1:7b", "prompt": "你好,你是谁?", "stream": false }'
看到包含'DeepSeek'或对应模型名的 JSON 返回,说明 Ollama 已经准备就绪。
OpenClaw 负责连接聊天软件(飞书)和 AI 大脑(Ollama),并管理各种工具(Skills)。
OpenClaw 需要 Node.js 22.0 或更高版本。
# 以 Ubuntu 为例
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash
sudo apt install -y nodejs
# 检查版本
node -v
官方提供了一键安装脚本,会自动处理大部分配置。
curl -fsSL https://openclaw.bot/install.sh | bash
安装完成后,执行初始化向导。注意:最新版的向导已经支持直接配置飞书和模型了,非常方便!
openclaw onboard --install-daemon
在向导中:
启动服务并检查状态:
openclaw gateway start
openclaw status
此时访问 http://127.0.0.1:18789 应该能看到 OpenClaw 的 Web 控制台(Dashboard)。
这是让 AI'落地'的关键一步,我们需要在飞书开放平台注册一个机器人应用。
现在,我们要让 OpenClaw 认识这个飞书机器人。
openclaw onboard
当问到渠道时,选择 feishu,并输入刚才拿到的 App ID 和 App Secret。
如果已经完成了 onboard,可以使用 channels 命令:
openclaw channels add
# 选择 feishu,按提示输入 APP ID 和 APP SECRET
配置完成后,必须重启网关才能使配置生效:
openclaw gateway restart
# 或者旧版本命令 openclaw-cn gateway restart
查看实时日志,确认飞书连接是否成功:
openclaw logs --follow
看到类似 Feishu client connected 或 login success 的字样,说明连接成功。
再次回到飞书,向你的机器人发送任意消息(例如'你好')。
此时,飞书机器人会回复一串 Pairing code: xxxx-xxxx。
在命令行中执行批准命令:
openclaw pairing approve feishu <你收到的 code>
现在,你的飞书 AI 助理已经可以工作了。你可以把它拉到群里,或者私聊。
在飞书里输入指令:
由于我们用的是 Ollama,你可以随时切换模型而无需重启 OpenClaw。只需修改 OpenClaw 配置中的模型名,或者通过 OpenClaw 的 TUI 界面临时切换模型。
# 在 OpenClaw 的 TUI 界面 /model deepseek-r1:7b
如果你的本地机器性能不足,或者需要处理超长文本,Ollama 也支持调用云端模型(如 GLM4.7 等),可以在配置中随时切换,实现本地与云端的'双模'运行。
command not found
npm prefix -g 找到路径(如 /usr/local),然后将 export PATH="$(npm prefix -g)/bin:$PATH" 加入 ~/.bashrc 或 ~/.zshrc。openclaw status 确认网关运行。ollama run deepseek-r1:7b --verbose 查看日志)。onboard 向导报错,可以先用飞书官方的'Python 示例代码'建立一个临时连接,让飞书后台通过验证,然后再切回 OpenClaw。通过 OpenClaw + Ollama + 飞书的组合,我们成功搭建了一个完全私有、免费、可定制的 AI 助理。它不仅能在日常聊天中提供帮助,还能通过 OpenClaw 强大的'技能'体系,真正去操作你的电脑、管理文件、甚至执行代码。
这套方案将数据留在本地,既保证了隐私安全,又锻炼了动手能力。现在,去给你的 AI 助理添加更多酷炫的技能吧!

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
查找任何按下的键的javascript键代码、代码、位置和修饰符。 在线工具,Keycode 信息在线工具,online
JavaScript 字符串转义/反转义;Java 风格 \uXXXX(Native2Ascii)编码与解码。 在线工具,Escape 与 Native 编解码在线工具,online
使用 Prettier 在浏览器内格式化 JavaScript 或 HTML 片段。 在线工具,JavaScript / HTML 格式化在线工具,online
Terser 压缩、变量名混淆,或 javascript-obfuscator 高强度混淆(体积会增大)。 在线工具,JavaScript 压缩与混淆在线工具,online