Linux 部署 Ollama+Qwen+OpenClaw 对接飞书本地大模型
本文介绍了在 Linux Ubuntu 系统上部署本地大模型的完整流程。首先通过 Ollama 运行轻量级 Qwen3.5 模型,接着安装配置 OpenClaw 平台,选择自定义 Provider 接入本地 Ollama 服务。通过 SSH 端口转发访问可视化界面,并进一步配置飞书机器人实现集成。最终实现无 API 限制、可离线使用的本地 AI 服务,支持 Web 交互及飞书消息推送。

本文介绍了在 Linux Ubuntu 系统上部署本地大模型的完整流程。首先通过 Ollama 运行轻量级 Qwen3.5 模型,接着安装配置 OpenClaw 平台,选择自定义 Provider 接入本地 Ollama 服务。通过 SSH 端口转发访问可视化界面,并进一步配置飞书机器人实现集成。最终实现无 API 限制、可离线使用的本地 AI 服务,支持 Web 交互及飞书消息推送。

基于当前 AI 的使用程度,定制化需求和考虑离线使用 AI 问题,本地部署 AI 成为一种趋势。
技术栈为:Ollama、OpenClaw、Qwen 大模型
可在官网下载安装包,或使用安装脚本:
curl -fsSL https://ollama.com/install.sh | bash
本机 Ubuntu 虚拟机部署,选择轻量级模型:
ollama run qwen3.5:2b
跑起来查看是否可以进行问答操作。
ollama listollama run <指定模型 + 版本>排查是否有 Node.js 且版本 >= 22。Node 安装脚本如下:
# 下载并安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash
# 加载 nvm
. "$HOME/.nvm/nvm.sh"
# 下载并安装 Node.js
nvm install 24
# 验证 Node.js 版本
node -v
# 应打印 "v24.14.0"
# 验证 npm 版本
npm -v
# 应打印 "11.9.0"
curl -fsSL https://openclaw.ai/install.sh | bash
# 或跳过引导
# curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
iwr -useb https://openclaw.ai/install.ps1 | iex
# 或
&([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1)))-NoOnboard
在安装向导中,先不选择接入 Qwen 模型,全部跳过,后续在配置里面接入 Ollama。 执行初始化向导:
openclaw onboard --install-daemon
执行完初始化向导后,进行 OpenClaw 配置:
openclaw config
选择 local 后,再选择 Mode。如果直接选择 Qwen 的话部署的是在线模型,是有 token 限制的,我们是本地部署,选择 Custom Provider 进入后自定义模型配置。
Ollama 的地址我这里是 172.0.0.1:11434。
根据提示下 API Base URL 输入地址 http://172.0.0.1:11434/v1 (必须加上 v1,因为 Ollama 识别到请求的 OpenApi 就是 http://172.0.0.1:11434/v1/XXXXXX,OpenClaw 默认不给你加 v1,你必须自己手动加)。
设置 APIKEY,因为我们跑的是本地模型,不存在 APIKEY,这里我们直接随便输入或者敲回车略过就行。 提示 Endpoint compatibility(API 端点兼容性设置),如下图,选择 OpenAI-compatible。
根据提示输入 ModeID: 因为之前拉取的是 qwen3.5:2b,这里 Model Id 直接输入 qwen3.5:2b,回车后 OpenClaw 直接拉取并配置 Ollama 下 qwen3.5:2b 模型。
配置别名:下面会填写好几个别名,这里就没有什么讲究了,起完别名自己记住就行了。 最后配置完成之后,选择 Continue 提交退出。
# 启动网关
openclaw gateway
# 打开 UI 页面
openclaw dashboard
由于 OpenClaw 不提供外部源访问,这里直接用 SSH 端口转发方式进行主机端访问:
# 192.168.1.44 为 linux 服务器的 IP
ssh -N -L 18789:127.0.0.1:18789 [email protected]
根据提示访问:http://localhost:18789/#token=...
打开飞书开放平台,创建企业自建应用。
按照界面指引创建机器人。
批量导入权限(直接复制):
{
"scopes": {
"tenant": [
"base:app:copy",
"base:app:create",
"base:app:read",
"base:app:update",
"base:collaborator:create",
"base:collaborator:delete",
"base:collaborator:read",
"base:dashboard:copy",
"base:dashboard:read",
"base:field:create",
"base:field:delete",
"base:field:read",
"base:field:update",
"base:form:read",
"base:form:update",
"base:record:create",
"base:record:delete",
"base:record:read",
"base:record:retrieve",
"base:record:update",
"base:role:create",
"base:role:delete",
"base:role:read"
订阅方式设置成使用 长连接 接收事件后再进行最后版本发布。
按照配置指导会让输入飞书应用的 App ID、App Secret,直接拷贝就行。 按照下图步骤,选择输入完成后,进行 finished。
访问时会回复没有权限。 解决办法:
openclaw pairing approve feishu <你的 App ID> 敲回车。# 直接修改配置文件
openclaw config set channels.feishu.dmPolicy "allowlist"
# 这里 ou_63985fc0b877330b926df092b8145XXX 修改为你的 user id
openclaw config set security.allowlist "[\"ou_63985fc0b877330b926df092b8145XXX\"]"
openclaw config set security.dmPolicy pass
设置完成之后一定要记得重启网关 openclaw gateway restart。
本文完整讲解了 Linux 系统离线部署 ollama + Qwen 本地大模型 + OpenClaw 可视化平台的全套流程,核心目标是搭建无 API 限制、可离线使用的本地 AI 服务。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML 转 Markdown在线工具,online