从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

这篇文章只干一件事:

帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw(OpenClawbot) 整套环境部署起来,并验证能正常聊天。

不讲太多概念,更多是命令 + 配置 + 排错,适合你边看边敲。


一、整体架构先说清楚

这一套技术栈里,各组件的分工是:

  • Ollama:本地大模型运行引擎,相当于“模型服务端”
  • Qwen 3.5:具体的大模型(如 qwen3.5-0.8b),在 Ollama 里跑
  • OpenClaw / OpenClawbot:在上面封一层“智能代理 + 多通道机器人”(终端、Telegram、后面你也可以接微信等)

简单理解为:

你/用户  →  OpenClawbot  →  Ollama API(http://localhost:11434)  →  Qwen 3.5 模型

所以部署顺序是:

  1. 安装并启动 Ollama
  2. 在 Ollama 里拉起 Qwen 3.5 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 配置 OpenClaw 使用 Ollama+Qwen 3.5
  5. 启动,确认可以正常对话

二、环境与准备

1. 操作系统和硬件建议

  • 系统
    • 推荐:macOS / Ubuntu 20.04+ / 22.04+
    • Windows:建议用 WSL2 + Ubuntu 跑 Ollama 和 OpenClaw
  • 硬件(跑 Qwen 3.5 0.8B 这种小模型):
    • CPU:4 核以上
    • 内存:8GB 起
    • 磁盘:预留 10GB+
    • GPU:可选;没有 GPU 也能跑 0.8B 模型

如果你只是想先体验一把,用一台 8G 内存的笔记本就能跑通。

2. 需要的软件

  • curl(拉安装脚本)
  • Node.js + npm(用来装 OpenClaw)
  • git(可选,用于看 OpenClaw 源码)

Ubuntu 一键装:

sudo apt update sudo apt install -y curl nodejs npm git

macOS 建议先装 Homebrew,再:

brew install node git
# curl 一般自带

三、第一步:安装并验证 Ollama

1. 安装 Ollama

官方安装脚本(macOS / Linux):

curl -fsSL https://ollama.com/install.sh | sh

Windows 则去官网下安装包,或者在 WSL2 Ubuntu 里用上面的命令。

2. 验证 Ollama 安装

ollama --version

能看到类似:

ollama version 0.17.0

说明 OK。

3. 启动 Ollama 服务

大多数系统装好后会自动以守护进程方式运行,你可以手动确认下:

# 看看 11434 端口是否在监听(Linux) ss -lntp | grep 11434 # 或简单 curl 一下 curl http://localhost:11434

如果返回类似:

{"models":[...]}

那说明 Ollama 服务正常在 http://localhost:11434 跑着。


四、第二步:在 Ollama 中拉取 Qwen 3.5 模型

1. 选择合适的 Qwen 3.5 版本

为了兼顾效果和能跑得动,很推荐文章里提到的:

  • qwen3.5-0.8b:只有 0.8B 参数,可以在纯 CPU 上跑,占空间大概 1GB 左右[1]
    适合入门 / VPS / 老电脑

如果你的 GPU 和内存都比较强,也可以尝试更大的版本(14B 等),但本篇先以 0.8B 为主。

2. 拉取模型

ollama pull qwen3.5-0.8b

耐心等下载完成。

3. 在命令行直接试一下模型

ollama run qwen3.5-0.8b "用一句话介绍一下你自己。"

如果能看到模型正常回答,说明:

  • Ollama 安装 OK
  • Qwen 3.5 模型拉取 OK
  • 本地推理能力没问题

五、第三步:安装 OpenClaw / OpenClawbot

说明:目前社区普遍说的“OpenClawbot”,本质上就是基于 OpenClaw 做的一套机器人/代理配置,这里统一用 OpenClaw 命令来装和配。

1. 通过 npm 全局安装 OpenClaw

npm install -g openclaw

如果报权限问题,可以用:

sudo npm install -g openclaw

安装完成后,执行:

openclaw --version

能看到版本号就说明装好了。

2.(可选)用 Ollama 的一键命令安装

Ollama 官方文档里提到,可以直接通过:

ollama launch openclaw --model qwen3.5-0.8b

来触发:

  1. 检查本机是否有 OpenClaw
  2. 如果没有,会提示并自动帮助安装配置一套推荐模型和插件[2]

如果你偏向“自动化安装”,可以考虑这条路线;
如果你想“自己掌控配置”,建议用 npm install -g openclaw 再手动改配置文件。

下面配置一节按“手动可控”路线讲。


六、第四步:配置 OpenClaw 连接 Ollama + Qwen 3.5

OpenClaw 的核心配置在一个 config.yaml 里(默认在 ~/.config/openclaw/config.yaml)。

1. 找到/创建配置文件

先看一下有没有默认配置目录:

ls ~/.config/openclaw

如果不存在,就自己创建:

mkdir -p ~/.config/openclaw
nano ~/.config/openclaw/config.yaml
# 或 vim / code 打开都行

2. 写入一个最小可用配置(终端机器人版)

例如:

gateway: host: 127.0.0.1 port: 3000 providers: ollama: type: ollama base_url: http://localhost:11434 # Ollama 默认 API 地址 model: qwen3.5-0.8b # 和你用 ollama pull 的 tag 一致 agents: default: provider: ollama system_prompt: > 你是一个中文 AI 助手,回答要简洁、友好,可以适当给出示例。 channels: terminal: enabled: true type: terminal

关键点:

  • base_url 必须指向你本机的 Ollama 接口,一般就是 http://localhost:11434
  • model 字段要与 ollama list 里显示的 完全一致,区分大小写与横杠[1]
  • agents.default.provider 对应上方 providers 中你起的名字(这里是 ollama

3. 检查配置是否正确

OpenClaw 一般会提供简单检查命令,你可以先直接尝试运行(有错误会提示)。


七、第五步:启动 OpenClaw 网关与 TUI(终端界面)

下面命令是来自社区实战博客的典型用法流程[1]。

1. 更新并启动网关

# 更新网关(如有必要)
openclaw gateway update

# 重启网关,使最新配置生效
openclaw gateway restart

如果你遇到 token 相关提示(例如“unauthorized token”),可以创建/配置 token:

openclaw token create      # 创建一个访问 token
openclaw gateway restart   # 再重启一次

2. 启动 OpenClaw 终端界面(OpenClawbot 的本地控制台)

bash复制

openclaw tui

成功的话,你会看到一个基于 TUI 的聊天界面(类似一个终端聊天窗口),此时输入一句中文:

你:帮我列一个今天的工作待办清单

几秒后能看到 Qwen 3.5 的回复,就说明:

  • OpenClaw 已经成功通过 providers.ollama 调用了本地 Ollama
  • Ollama 内部调起了 Qwen 3.5 模型
  • 整个 “OpenClawbot → Ollama → Qwen 3.5” 链路打通

到这里,一个本地终端版的 Qwen 3.5 OpenClawbot 已经部署完成。


八、可选:接入 Telegram,做“聊天软件版机器人”

很多教程会在这一步把 OpenClawbot 接入 Telegram,形成一个真正的“聊天机器人”[1]。这里只简单带一下部署关键点,后面你可以单开一篇专门写 Telegram / 微信接入。

1. 在 Telegram 里创建 Bot

  • 搜索 @BotFather
  • 发送 /newbot 按提示创建机器人
  • 获得一个形如 123456789:ABC-...Bot Token

2. 在 OpenClaw 里配置 Telegram 通道

方式一:用交互式配置向导:

openclaw configure

大致流程:

  • 选择要配置的 section:channels
  • 添加新的 channel:选择 telegram
  • 粘贴 Bot Token
  • 保存退出(类似 Finished 之类的选项)

方式二:直接在 config.yaml 增加:

channels:
  terminal:
    enabled: true
    type: terminal

  telegram:
    enabled: true
    type: telegram
    bot_token: YOUR_TELEGRAM_BOT_TOKEN

然后重启网关:

openclaw gateway restart

此时在 Telegram 中给你的 Bot 发消息,应该就能看到由 Qwen 3.5 驱动的回复了(消息也会在 TUI 里同步显示)。


九、常见问题与排错

1. OpenClaw 报 “model not found” 或调用失败

排查步骤:

重启网关再试:

openclaw gateway restart

确保 config.yaml 中的:

providers:
  ollama:
    model: qwen3.5-0.8b

ollama list 里的 tag 完全一致(包括点、横线、大小写)[1]。

先看 Ollama 里到底有什么模型:

ollama list

2. CPU 占用高 / 非常慢

  • 尝试先用 qwen3.5-0.8b,避免一上来就拉大模型
  • 问题尽量短一点,减少生成 token 数
  • 如果是服务器,可以考虑用 screentmux 把进程常驻后台

3. 报 “unauthorized token” 类错误

说明 OpenClaw 的网关启用了一些 token 校验:

openclaw token create
openclaw gateway restart

按提示生成 token 并更新配置即可。


十、一键启动脚本示例(方便日常使用)

你可以写一个简单脚本,让自己每次启动更轻松。

例如 start_openclaw_qwen.sh



赋予执行权限:

chmod +x start_openclaw_qwen.sh

之后只要:

./start_openclaw_qwen.sh

就能直接进到聊天界面。


十一、总结:这一篇你已经完成了什么?

到目前为止,你已经完成了:

  1. 在本地安装并启动 Ollama
  2. 拉取并验证可以运行的 Qwen 3.5 0.8B 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 写好 config.yaml,让 OpenClaw 通过 Ollama 调 Qwen 3.5
  5. 启动网关和 TUI,确认可以在终端完成整链路对话;
  6. 初步了解了如何把机器人接入 Telegram。

Read more

AI时代的技术民主化:为什么文科生可能成为最大受益者?

AI时代的技术民主化:为什么文科生可能成为最大受益者?

✨道路是曲折的,前途是光明的! 📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记! 🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流! 当技术门槛被无限降低,真正有价值的不再是"怎么写代码",而是"想做什么" 01 一个被忽视的趋势 过去一年,我观察到一个有趣的现象:那些在AI浪潮中赚得盆满钵满的人,并不是技术背景最深厚的那批。 相反,他们中有学中文的、学设计的、学市场营销的。他们有一个共同特点——擅长理解人,擅长讲故事,擅长发现需求。 而这,恰恰是AI目前做不到的。 02 从"技术壁垒"到"创意壁垒" 传统开发流程 vs AI辅助流程 让我们看看传统的产品开发流程与现在的对比: 关键洞察:传统模式下,"想法&

科研党沸腾!AutoFigure让AI一键画出Nature级别的论文插图,告别PPT地狱

前天发了一个PaperBanana文章: PaperBanana:AI科研人员画图终于不用头疼了 今天又刷到一篇ICLR 2026的论文,看完直接坐不住了。作为天天跟论文打交道的人,谁没为画一张像样的方法图熬过夜?现在终于有人把这事儿给彻底解决了——AutoFigure,一个能从长文本直接生成publication-ready科研插图的AI框架。 讲真,这次不是又来刷榜的那种工作。团队直接放了个大招:不仅搞出了第一个专门针对科研插图生成的benchmark FigureBench(3300对高质量文本-图片数据),还真的做出了一个能用的系统。最关键的是,人类专家评测显示,66.7%的生成结果达到了可以直接放进正式论文的标准。这可不是吹的,是实打实让10个一作来评价自己论文的图,然后给出的数据。 科研可视化这座大山,终于有人动了 咱们先聊聊为啥要做这个。科研插图有多重要?一张好图能让审稿人3分钟看懂你的核心思想,防止理解偏差。但问题是,画一张高质量的科研插图,往往要花好几天时间,还得同时具备专业知识和设计能力。 之前也有些相关工作,比如Paper2Fig100k、ACL-

AI 编程 Trae,国内版本和国际版本,一篇讲透!

AI 编程 Trae,国内版本和国际版本,一篇讲透!

大家好,我是樱木。 写在前面的一些话 最近字节出的 AI 编程 Trae ,写的文章发布后,后台总是收到类似提问:都是Trae,怎么使用的还不一样? 什么是国内版本、国际版本,有什么区别? 如果你是一位业内人士比如程序员,这些问题,以下的文章,你可以直接不用看了。 今天结合最近的使用经验,来分享一下。 一、国内版本 1、官方网站:https://www.trae.com.cn/ 2、内置模型 豆包Doubao、Kimi-K2、阿里千问Qwen-3-Coder、清华智普GLM-4.5、DeepSeek-Reasoner(R1) 3、排队 国产大模型为主,基本不用排队 二、国际版本 1、官方网站:https://www.trae.ai

【GitHub项目推荐--火宝短剧:AI驱动的一站式短剧生成平台】⭐⭐⭐

简介 火宝短剧(Huobao Drama)是一个基于人工智能的完整短剧生成平台,由chatfire-AI团队开发。该项目采用Go语言和Vue3技术栈构建,实现了从剧本创作到视频生成的全流程自动化。通过集成先进的大语言模型、图像生成和视频合成技术,火宝短剧能够将用户的一句话创意转化为完整的短剧作品,大幅降低了视频内容创作的技术门槛和时间成本。 核心价值: * 全流程自动化:从剧本到成片的端到端自动化生成 * 多模态AI集成:整合文本、图像、视频生成于一体 * 专业级输出:生成质量达到商业用途标准的短剧内容 * 开源可定制:基于Apache 2.0许可证,支持二次开发和定制 技术定位:火宝短剧填补了AI内容生成与专业视频制作之间的空白。通过标准化的生产流水线和智能化的创作辅助,它为个人创作者、内容工作室和企业用户提供了高效的短剧内容生产解决方案。 主要功能 1. 智能剧本生成系统 基于大语言模型的剧本创作引擎,支持从简单描述生成完整剧本结构。角色自动设计和对话生成,确保剧情连贯性和人物立体感。场景分解和分镜规划,智能化安排剧情节奏。多风格支持,适应言情、悬疑、喜剧等