本地部署 Ollama + Qwen 3.5 构建 OpenClawbot 机器人
本文旨在帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw 整套环境部署起来,并验证能正常聊天。不讲太多概念,更多是命令、配置与排错,适合边看边操作。
一、整体架构先说清楚
这一套技术栈里,各组件的分工如下:
- Ollama:本地大模型运行引擎,相当于'模型服务端'
- Qwen 3.5:具体的大模型(如
qwen3.5-0.8b),在 Ollama 里跑 - OpenClaw / OpenClawbot:在上面封一层'智能代理 + 多通道机器人'(终端、Telegram、后面你也可以接微信等)
简单理解为:
用户 → OpenClawbot → Ollama API (http://localhost:11434) → Qwen 3.5 模型
所以部署顺序是:安装并启动 Ollama → 在 Ollama 里拉起 Qwen 3.5 模型 → 安装 OpenClaw → 配置 OpenClaw 使用 Ollama+Qwen 3.5 → 启动并确认对话。
二、环境与准备
1. 操作系统和硬件建议
- 系统:推荐 macOS / Ubuntu 20.04+ / 22.04+;Windows 建议使用 WSL2 + Ubuntu 跑 Ollama 和 OpenClaw。
- 硬件(跑 Qwen 3.5 0.8B 这种小模型):
- CPU:4 核以上
- 内存:8GB 起
- 磁盘:预留 10GB+
- GPU:可选;没有 GPU 也能跑 0.8B 模型
如果你只是想先体验一把,用一台 8G 内存的笔记本就能跑通。
2. 需要的软件
- curl(拉安装脚本)
- Node.js + npm(用来装 OpenClaw)
- git(可选,用于查看 OpenClaw 源码)
Ubuntu 一键安装:
sudo apt update && sudo apt install -y curl nodejs npm git
macOS 建议先装 Homebrew,再执行:
brew install node git
# curl 一般自带
三、第一步:安装并验证 Ollama
1. 安装 Ollama
官方安装脚本(macOS / Linux):
curl -fsSL https://ollama.com/install.sh | sh
Windows 则去官网下安装包,或者在 WSL2 Ubuntu 里用上面的命令。
2. 验证 Ollama 安装
ollama --version
能看到类似 ollama version 0.17.0 说明 OK。
3. 启动 Ollama 服务
大多数系统装好后会自动以守护进程方式运行,你可以手动确认下:
ss -lntp | grep 11434
curl http://localhost:11434

