本地 AI 自由!OpenClaw+Ollama 双系统部署教程(Windows/Linux),零成本离线跑大模型
想拥有完全本地、无 Token 消耗、隐私安全的 AI 助手?本文手把手教你在Windows+Linux双系统部署 OpenClaw,并通过 Ollama 对接本地大模型,全程离线可用、操作极简,新手也能快速上手!
一、环境准备
- 系统:Windows 10+/Ubuntu 20.04+(其他 Linux 发行版适配)
- 内存:≥8GB(推荐 16GB,流畅运行本地模型)
- 依赖:Node.js ≥22.x、Git
- 工具:Ollama(本地大模型一键部署)
二、Windows 部署 OpenClaw
1. 管理员启动 PowerShell
Win+X → 选择「Windows 终端 (管理员)」
2. 配置执行策略(必做)
Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned 输入Y确认
3. 一键安装 OpenClaw
iwr -useb https://openclaw.ai/install.ps1 | iex 4. 验证安装
openclaw --version 显示版本号即安装成功
5. 初始化配置
openclaw onboard 按提示选择:Yes → QuickStart → 暂时跳过模型配置(后续对接 Ollama)
三、Linux 部署 OpenClaw
1. 更新系统依赖
sudo apt update && sudo apt upgrade -y sudo apt install -y curl git 2. 一键安装 OpenClaw
curl -fsSL https://openclaw.ai/install.sh | bash 3. 加载环境变量
source ~/.bashrc 4. 验证安装
openclaw --version 5. 初始化配置
openclaw onboard 配置流程同 Windows
四、Ollama 本地大模型部署(双系统通用)
1. Windows 安装 Ollama
访问官网下载安装包:https://ollama.com/download双击安装,自动后台启动
2. Linux 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh 3. 启动 Ollama 服务
ollama serve 4. 拉取本地模型(以通义千问 2.5 为例)
ollama pull qwen2.5:7b 5. 验证模型运行
ollama run qwen2.5:7b 进入对话界面即成功
五、OpenClaw 连接 Ollama 本地模型
1. 配置 Ollama API Key(无需真实密钥)
openclaw config set models.providers.ollama.apiKey "ollama-local" 2. 配置 Ollama 服务地址
openclaw config set models.providers.ollama.baseUrl "http://localhost:11434/v1" 3. 设置默认模型
openclaw config set models.default "ollama/qwen2.5:7b" 4. 重启 OpenClaw 生效
# Windows/Linux通用 openclaw restart 5. 验证连接
openclaw config test models.provider.ollama 返回「集成成功」即完成对接
六、常见问题与避坑
- OpenClaw 安装失败检查 Node.js 版本≥22.x,重新安装依赖后重试
- Ollama 无法访问确认端口 11434 未占用,关闭防火墙 / 代理重试
- 模型加载缓慢降低模型参数(如使用 qwen2.5:1.8b),增加内存分配
- 对接失败务必在 baseUrl 末尾添加
/v1,这是核心兼容点
七、总结
本文完成了Windows+Linux 双系统 OpenClaw 部署,并通过 Ollama 实现本地大模型无缝对接,真正做到离线可用、零成本、隐私安全。后续可根据需求更换模型,打造专属本地 AI 助手!