本地部署优势
- 零费用:无需任何 API Key,彻底告别按 token 计费
- 断网可用:飞机上、地下室、偏远山区照样畅快使用
- 模型自由:一键切换 GPT-OSS、Qwen 3、GLM 4.7 等顶尖模型
环境准备
以管理员身份打开 PowerShell,依次执行:
winget install git.git
若出现权限错误,追加执行:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
安装 Ollama
安装最新版客户端。安装完成后验证版本:
ollama --version
下载核心模型
根据需求选择最适合的本地引擎:
| 模型名称 | 特性说明 | 安装命令 |
|---|---|---|
| qwen3-coder | 代码任务优化专家 | ollama run qwen3-coder |
| glm-4.7 | 全能型选手 | ollama run glm-4.7 |
| glm-4.7-flash | 速度与性能的完美平衡 | ollama run glm-4.7-flash |
| gpt-oss:20b | 轻量级开源 GPT | ollama run gpt-oss:20b |
| gpt-oss:120b | 性能怪兽(需高配置) | ollama run gpt-oss:120b |
专业建议:首次尝试建议选择 glm-4.7-flash,在性能和资源消耗间取得最佳平衡。
部署 OpenClaw
Windows 用户直接执行:
iwr -useb https://openclaw.ai/install.ps1 | iex
其他系统使用通用命令:
curl -fsSL https://openclaw.ai/install.sh | bash
启动服务
立即运行:
ollama launch openclaw
或先配置后启动:
ollama launch openclaw --config
Telegram 集成
- 在 Telegram 中搜索@BotFather 创建新机器人
- 获取专属 Token(形如:8123121125:AAExamegv-0FQCfhfbazmp4405V0XAJCKfk)
- 在机器人对话界面获取配对码(例如:DLW7HQ69)
- 执行配对命令:
openclaw pairing approve telegram 你的配对码
日常使用与维护
- 快速启动:每次重启后执行

