OpenClaw + Ollama 本地部署与使用指南
面对高昂的 API 调用成本与网络波动风险,本地化部署提供了更可控的替代方案。通过 OpenClaw 结合 Ollama,你可以在本地构建完全免费、断网可用且支持多模型切换的 AI 工作站。
核心优势
- 零费用:无需 API Key,彻底告别按 Token 计费
- 离线可用:无网络环境下依然流畅运行
- 模型自由:灵活切换 Qwen、GLM、GPT-OSS 等开源模型
环境准备
以管理员身份打开 PowerShell,依次执行以下命令安装 Git:
winget install git.git
若遇到权限错误,请追加执行策略设置:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
安装 Ollama
前往官网下载最新版客户端(已适配 OpenClaw)。安装完成后验证版本:
ollama --version
下载核心模型
根据需求选择最适合的本地引擎:
| 模型名称 | 特性说明 | 安装命令 |
|---|---|---|
| qwen3-coder | 代码任务优化专家 | ollama run qwen3-coder |
| glm-4.7 | 全能型选手 | ollama run glm-4.7 |
| glm-4.7-flash | 速度与性能平衡 | ollama run glm-4.7-flash |
| gpt-oss:20b | 轻量级开源 GPT | ollama run gpt-oss:20b |
| gpt-oss:120b | 高性能模型(需高配置) | ollama run gpt-oss:120b |
提示:首次尝试建议选择
glm-4.7-flash,在性能和资源消耗间取得最佳平衡。
部署 OpenClaw
Windows 用户直接执行:
iwr -useb https://openclaw.ai/install.ps1 | iex
其他系统使用通用命令:
curl -fsSL https://openclaw.ai/install.sh | bash
启动服务
立即运行:
ollama launch openclaw
或先配置后启动:
ollama launch openclaw --config

