OpenClaw + Ollama 本地部署实战指南
在本地环境运行大模型,意味着完全的数据隐私控制、零 API 费用以及断网可用性。通过结合 Ollama 推理引擎与 OpenClaw 管理工具,可以在个人电脑上构建高效的 AI 工作站。
本地部署优势
相比云端服务,本地化方案主要解决以下问题:
- 零费用:无需支付 Token 费用,彻底告别按量计费模式
- 离线可用:网络受限环境下(如内网、差旅)仍可正常调用
- 模型自由:支持切换 Qwen、GLM、GPT-OSS 等多种开源模型
部署流程
1. 环境准备
以管理员身份打开 PowerShell,首先确保 Git 已安装:
winget install git.git
若遇到执行策略限制,需调整当前用户权限:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
2. 安装 Ollama
下载并安装 Ollama 客户端。安装完成后验证版本信息:
ollama --version
3. 拉取模型
根据硬件配置选择合适的基础模型。常用命令如下:
| 模型名称 | 特性说明 | 安装命令 |
|---|---|---|
| qwen3-coder | 代码任务优化专家 | ollama run qwen3-coder |
| glm-4.7 | 全能型对话模型 | ollama run glm-4.7 |
| glm-4.7-flash | 速度与性能平衡 | ollama run glm-4.7-flash |
| gpt-oss:20b | 轻量级开源 GPT | ollama run gpt-oss:20b |
| gpt-oss:120b | 高性能模型(需高配) | ollama run gpt-oss:120b |
建议首次尝试使用 glm-4.7-flash,在资源消耗与响应速度间取得平衡。
4. 部署 OpenClaw
Windows 系统直接运行安装脚本:
iwr -useb https://openclaw.ai/install.ps1 | iex
其他系统可使用通用命令:
curl -fsSL https://openclaw.ai/install.sh | bash
5. 启动服务
完成安装后,即可启动服务:
ollama launch openclaw
如需自定义配置,可添加参数:
ollama launch openclaw --config
高级功能:Telegram 对接
若需将 AI 能力接入 Telegram 机器人,请按以下步骤操作:

