从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

这篇文章只干一件事:

帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw(OpenClawbot) 整套环境部署起来,并验证能正常聊天。

不讲太多概念,更多是命令 + 配置 + 排错,适合你边看边敲。


一、整体架构先说清楚

这一套技术栈里,各组件的分工是:

  • Ollama:本地大模型运行引擎,相当于“模型服务端”
  • Qwen 3.5:具体的大模型(如 qwen3.5-0.8b),在 Ollama 里跑
  • OpenClaw / OpenClawbot:在上面封一层“智能代理 + 多通道机器人”(终端、Telegram、后面你也可以接微信等)

简单理解为:

你/用户  →  OpenClawbot  →  Ollama API(http://localhost:11434)  →  Qwen 3.5 模型

所以部署顺序是:

  1. 安装并启动 Ollama
  2. 在 Ollama 里拉起 Qwen 3.5 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 配置 OpenClaw 使用 Ollama+Qwen 3.5
  5. 启动,确认可以正常对话

二、环境与准备

1. 操作系统和硬件建议

  • 系统
    • 推荐:macOS / Ubuntu 20.04+ / 22.04+
    • Windows:建议用 WSL2 + Ubuntu 跑 Ollama 和 OpenClaw
  • 硬件(跑 Qwen 3.5 0.8B 这种小模型):
    • CPU:4 核以上
    • 内存:8GB 起
    • 磁盘:预留 10GB+
    • GPU:可选;没有 GPU 也能跑 0.8B 模型

如果你只是想先体验一把,用一台 8G 内存的笔记本就能跑通。

2. 需要的软件

  • curl(拉安装脚本)
  • Node.js + npm(用来装 OpenClaw)
  • git(可选,用于看 OpenClaw 源码)

Ubuntu 一键装:

sudo apt update sudo apt install -y curl nodejs npm git

macOS 建议先装 Homebrew,再:

brew install node git
# curl 一般自带

三、第一步:安装并验证 Ollama

1. 安装 Ollama

官方安装脚本(macOS / Linux):

curl -fsSL https://ollama.com/install.sh | sh

Windows 则去官网下安装包,或者在 WSL2 Ubuntu 里用上面的命令。

2. 验证 Ollama 安装

ollama --version

能看到类似:

ollama version 0.17.0

说明 OK。

3. 启动 Ollama 服务

大多数系统装好后会自动以守护进程方式运行,你可以手动确认下:

# 看看 11434 端口是否在监听(Linux) ss -lntp | grep 11434 # 或简单 curl 一下 curl http://localhost:11434

如果返回类似:

{"models":[...]}

那说明 Ollama 服务正常在 http://localhost:11434 跑着。


四、第二步:在 Ollama 中拉取 Qwen 3.5 模型

1. 选择合适的 Qwen 3.5 版本

为了兼顾效果和能跑得动,很推荐文章里提到的:

  • qwen3.5-0.8b:只有 0.8B 参数,可以在纯 CPU 上跑,占空间大概 1GB 左右[1]
    适合入门 / VPS / 老电脑

如果你的 GPU 和内存都比较强,也可以尝试更大的版本(14B 等),但本篇先以 0.8B 为主。

2. 拉取模型

ollama pull qwen3.5-0.8b

耐心等下载完成。

3. 在命令行直接试一下模型

ollama run qwen3.5-0.8b "用一句话介绍一下你自己。"

如果能看到模型正常回答,说明:

  • Ollama 安装 OK
  • Qwen 3.5 模型拉取 OK
  • 本地推理能力没问题

五、第三步:安装 OpenClaw / OpenClawbot

说明:目前社区普遍说的“OpenClawbot”,本质上就是基于 OpenClaw 做的一套机器人/代理配置,这里统一用 OpenClaw 命令来装和配。

1. 通过 npm 全局安装 OpenClaw

npm install -g openclaw

如果报权限问题,可以用:

sudo npm install -g openclaw

安装完成后,执行:

openclaw --version

能看到版本号就说明装好了。

2.(可选)用 Ollama 的一键命令安装

Ollama 官方文档里提到,可以直接通过:

ollama launch openclaw --model qwen3.5-0.8b

来触发:

  1. 检查本机是否有 OpenClaw
  2. 如果没有,会提示并自动帮助安装配置一套推荐模型和插件[2]

如果你偏向“自动化安装”,可以考虑这条路线;
如果你想“自己掌控配置”,建议用 npm install -g openclaw 再手动改配置文件。

下面配置一节按“手动可控”路线讲。


六、第四步:配置 OpenClaw 连接 Ollama + Qwen 3.5

OpenClaw 的核心配置在一个 config.yaml 里(默认在 ~/.config/openclaw/config.yaml)。

1. 找到/创建配置文件

先看一下有没有默认配置目录:

ls ~/.config/openclaw

如果不存在,就自己创建:

mkdir -p ~/.config/openclaw
nano ~/.config/openclaw/config.yaml
# 或 vim / code 打开都行

2. 写入一个最小可用配置(终端机器人版)

例如:

gateway: host: 127.0.0.1 port: 3000 providers: ollama: type: ollama base_url: http://localhost:11434 # Ollama 默认 API 地址 model: qwen3.5-0.8b # 和你用 ollama pull 的 tag 一致 agents: default: provider: ollama system_prompt: > 你是一个中文 AI 助手,回答要简洁、友好,可以适当给出示例。 channels: terminal: enabled: true type: terminal

关键点:

  • base_url 必须指向你本机的 Ollama 接口,一般就是 http://localhost:11434
  • model 字段要与 ollama list 里显示的 完全一致,区分大小写与横杠[1]
  • agents.default.provider 对应上方 providers 中你起的名字(这里是 ollama

3. 检查配置是否正确

OpenClaw 一般会提供简单检查命令,你可以先直接尝试运行(有错误会提示)。


七、第五步:启动 OpenClaw 网关与 TUI(终端界面)

下面命令是来自社区实战博客的典型用法流程[1]。

1. 更新并启动网关

# 更新网关(如有必要)
openclaw gateway update

# 重启网关,使最新配置生效
openclaw gateway restart

如果你遇到 token 相关提示(例如“unauthorized token”),可以创建/配置 token:

openclaw token create      # 创建一个访问 token
openclaw gateway restart   # 再重启一次

2. 启动 OpenClaw 终端界面(OpenClawbot 的本地控制台)

bash复制

openclaw tui

成功的话,你会看到一个基于 TUI 的聊天界面(类似一个终端聊天窗口),此时输入一句中文:

你:帮我列一个今天的工作待办清单

几秒后能看到 Qwen 3.5 的回复,就说明:

  • OpenClaw 已经成功通过 providers.ollama 调用了本地 Ollama
  • Ollama 内部调起了 Qwen 3.5 模型
  • 整个 “OpenClawbot → Ollama → Qwen 3.5” 链路打通

到这里,一个本地终端版的 Qwen 3.5 OpenClawbot 已经部署完成。


八、可选:接入 Telegram,做“聊天软件版机器人”

很多教程会在这一步把 OpenClawbot 接入 Telegram,形成一个真正的“聊天机器人”[1]。这里只简单带一下部署关键点,后面你可以单开一篇专门写 Telegram / 微信接入。

1. 在 Telegram 里创建 Bot

  • 搜索 @BotFather
  • 发送 /newbot 按提示创建机器人
  • 获得一个形如 123456789:ABC-...Bot Token

2. 在 OpenClaw 里配置 Telegram 通道

方式一:用交互式配置向导:

openclaw configure

大致流程:

  • 选择要配置的 section:channels
  • 添加新的 channel:选择 telegram
  • 粘贴 Bot Token
  • 保存退出(类似 Finished 之类的选项)

方式二:直接在 config.yaml 增加:

channels:
  terminal:
    enabled: true
    type: terminal

  telegram:
    enabled: true
    type: telegram
    bot_token: YOUR_TELEGRAM_BOT_TOKEN

然后重启网关:

openclaw gateway restart

此时在 Telegram 中给你的 Bot 发消息,应该就能看到由 Qwen 3.5 驱动的回复了(消息也会在 TUI 里同步显示)。


九、常见问题与排错

1. OpenClaw 报 “model not found” 或调用失败

排查步骤:

重启网关再试:

openclaw gateway restart

确保 config.yaml 中的:

providers:
  ollama:
    model: qwen3.5-0.8b

ollama list 里的 tag 完全一致(包括点、横线、大小写)[1]。

先看 Ollama 里到底有什么模型:

ollama list

2. CPU 占用高 / 非常慢

  • 尝试先用 qwen3.5-0.8b,避免一上来就拉大模型
  • 问题尽量短一点,减少生成 token 数
  • 如果是服务器,可以考虑用 screentmux 把进程常驻后台

3. 报 “unauthorized token” 类错误

说明 OpenClaw 的网关启用了一些 token 校验:

openclaw token create
openclaw gateway restart

按提示生成 token 并更新配置即可。


十、一键启动脚本示例(方便日常使用)

你可以写一个简单脚本,让自己每次启动更轻松。

例如 start_openclaw_qwen.sh



赋予执行权限:

chmod +x start_openclaw_qwen.sh

之后只要:

./start_openclaw_qwen.sh

就能直接进到聊天界面。


十一、总结:这一篇你已经完成了什么?

到目前为止,你已经完成了:

  1. 在本地安装并启动 Ollama
  2. 拉取并验证可以运行的 Qwen 3.5 0.8B 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 写好 config.yaml,让 OpenClaw 通过 Ollama 调 Qwen 3.5
  5. 启动网关和 TUI,确认可以在终端完成整链路对话;
  6. 初步了解了如何把机器人接入 Telegram。

Read more

AI时代下的低代码复兴:开发民主化的新机遇

AI时代下的低代码复兴:开发民主化的新机遇

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI时代下的低代码复兴:开发民主化的新机遇 🚀 * 引言:打破编程的“围城” * 第一部分:回望过去——低代码的兴衰与转型 * 1.1 传统低代码的痛点 * 1.2 枯木逢春:AI带来的“认知革命” * 第二部分:架构解析——AI是如何驱动低代码的? * 第三部分:实战演练——代码改变低代码 * 3.1 场景:构建一个“客户反馈管理系统” * 3.2 进阶:AI自动修复与优化 * 第四部分:机遇与挑战——谁乘风破浪? * 4.1 谁是受益者? * 4.

虚幻版Pico大空间VR入门教程 04 —— PicoOpenXR和PicoXR插件对于PDC串流、SteamVR串流、OpenXR串流对比 和 手势追踪对比

虚幻版Pico大空间VR入门教程 04 —— PicoOpenXR和PicoXR插件对于PDC串流、SteamVR串流、OpenXR串流对比 和 手势追踪对比

省流 串流方式最重要,笔者使用【Pico4UE 企业版】一体机,使用【PicoOpenXR插件+OpenXR插件】【企业串流v2.0的apk+exe应用】和【OpenXR串流方式】进行有线串流, 串流调试时可以正常手势追踪,打包apk和exe的VR手势追踪正常。 文章包含整理的百度云资源、SteamVR串流、不同UE版本的手势追踪对比记录,曾经的踩坑笔记(略长)。 插件文档 PicoXR和PicoOpenXR 插件文档 https://developer-cn.picoxr.com/document/ PicoXR 开发文档 https://developer-cn.picoxr.com/document/unreal/ PicoOpenXR 开发文档 https://developer-cn.picoxr.com/document/unreal-openxr/ 插件下载 PicoXR和PicoOpenXR Pico SDK

GPEN与Stable Diffusion结合:人像增强插件开发教程

GPEN与Stable Diffusion结合:人像增强插件开发教程 你是不是也遇到过这样的问题:用Stable Diffusion生成的人像图,细节不够锐利、皮肤质感偏塑料、五官轮廓略显模糊?或者修复老照片时,AI总在发际线、睫毛、耳垂这些精细部位“自由发挥”?别急——今天我们就来把GPEN这个专精人像修复的“细节控”模型,变成Stable Diffusion的得力助手。不是简单调用API,而是手把手带你开发一个真正可用、可集成、可复用的本地化人像增强插件。 这篇教程不讲空泛理论,不堆参数配置,只聚焦一件事:让你明天就能在WebUI里点一下,就把SD生成的图“唤醒”——让眼睛有神、皮肤有质、发丝有形、轮廓有骨。全程基于ZEEKLOG星图提供的GPEN人像修复增强模型镜像,开箱即用,零环境踩坑。 1. 为什么是GPEN?它和Stable Diffusion不是“同类选手” 先说清楚一个常见误解:GPEN不是另一个文生图模型,它不理解“赛博朋克风”或“水墨晕染”,也不生成新构图。它的核心能力非常纯粹—

原创大规模无人机检测数据集:11998张高质量图像,支持YOLOv8、COCO、TensorFlow多格式训练,涵盖飞机、无人机、直升机三大目标类别

原创大规模无人机检测数据集:11998张高质量图像,支持YOLOv8、COCO、TensorFlow多格式训练,涵盖飞机、无人机、直升机三大目标类别

大规模无人机检测数据集:11998张高质量图像,支持YOLOv8、COCO、TensorFlow多格式训练,涵盖飞机、无人机、直升机三大目标类别 引言与背景 随着无人机技术的快速发展和广泛应用,无人机检测已成为计算机视觉领域的重要研究方向。无论是民用领域的无人机监管、安全防护,还是军用领域的威胁识别、防空系统,都需要高精度的无人机检测算法作为技术支撑。然而,构建一个高质量、大规模、多场景的无人机检测数据集面临着数据收集困难、标注成本高昂、场景多样性不足等挑战。 本数据集正是在这一背景下应运而生,为无人机检测研究提供了宝贵的数据资源。该数据集不仅包含了丰富的无人机图像样本,还涵盖了飞机和直升机等相似目标,为算法训练提供了更具挑战性和实用性的数据环境。通过多格式标注支持,研究人员可以直接使用该数据集进行YOLOv8、TensorFlow Object Detection等主流框架的模型训练,大大降低了研究门槛,加速了无人机检测技术的发展。 数据基本信息 项目详细信息图像总数11,998张图像分辨率640×640像素目标类别3类(飞机、无人机、直升机)标注格式COCO JSON