进阶实战:CLIProxyAPI Plus + OpenClaw 零配置结合,打造你的专属 24/7 AI 超级助手(保姆级 + 原理级教程)
相关链接(仍在活跃):CLIProxyAPI Plus、OpenClaw
昨天我们已经用 Docker 一键部署了 CLIProxyAPI Plus(简称 CPA),生成了专属 API 密钥,并通过 http://你的IP:9999/v1 实现了 OpenAI 兼容端点。今天我们继续进阶:把这个代理完美对接 OpenClaw(开源个人 AI 助手,前身 Clawdbot),让 OpenClaw 通过你的 CPA 代理调用多账号 OpenAI 模型,实现 WhatsApp/Telegram/Slack 等消息渠道的自动任务执行、代码编写、邮件处理、日历管理等全自动化能力。
为什么必须结合?
CPA 负责账号集中管理、额度自动切换、国内直连。
OpenClaw 负责“行动层”:它不是聊天机器人,而是真正的 Agent,能调用工具、读写文件、操作浏览器、集成 50+ App。
两者结合 = 一个本地运行的 Claude/GPT 级超级助手,完全掌控在你手里,无限额度、无 API 限流。
网上很多教程直接改官方 config 导致重启后失效。今天我们依然遵循“冒号法则”和“只改左边”原则,保证你换硬盘、换端口、换机器也能一次成功!
💡 核心原理:OpenClaw 的“OpenAI 兼容层”揭秘
OpenClaw 支持任意 OpenAI-compatible endpoint(包括你的 CPA)。核心配置只有两个环境变量:
- OPENAI_BASE_URL:指向你的 CPA 地址(必须以 /v1 结尾)。
- OPENAI_API_KEY:你在 CPA 管理面板里生成的密钥(sk- 开头)。
优先级顺序(技术深度):
- ~/.openclaw/.env(全局最推荐)
- 当前目录 .env
- 运行时环境变量
OpenClaw 内部会自动把这两个变量注入默认的 openaiprovider。如果你想用 CPA 里的自定义模型(如 gpt-5.2-codex),可以额外定义 models.providers(后面会教)。
端口/路径法则(和 CPA 完全一致):
- 左边(宿主机):随便改
- 右边(容器内):绝对不能动
准备好了吗?我们继续用 Docker 部署,保证和小白昨天的操作一模一样流畅!
🛠️ 第一部分:准备工作(假设 CPA 已运行)
确保你的 CPA 容器正在运行:
dockerps|grep cli-proxy-api-plus 看到 9999:8317 且状态 Up 即可。
在浏览器打开 http://localhost:9999/management.html(或服务器 IP),登录后确认:
- 已上传 OpenAI JSON 密钥文件
- 已生成 API 密钥(复制下来,后面要用)
🪟 第二部分:Windows 本地部署 OpenClaw(推荐新手)
1.创建专属目录(可随意改路径)
以管理员 PowerShell 执行:
# 这里的 D:\AI-Proxy 你可以改成任何你想放的路径!New-Item-ItemType Directory -Force -Path D:\AI-Proxy\auths New-Item-ItemType Directory -Force -Path D:\AI-Proxy\logs cd D:\AI-Proxy 2.一键拉取官方 Docker 配置(最稳方式)
# 方法1:git 克隆(推荐)git clone https://github.com/openclaw/openclaw.git .# 方法2:如果 git 不方便,可直接下载最新 release zip 并解压到当前目录# https://github.com/openclaw/openclaw/releases/latest3.生成并修改 .env(最关键一步!)
Set-Content-Path .env -Value @" # === CPA 代理核心配置(只改下面两行)=== OPENAI_BASE_URL=http://localhost:9999/v1 OPENAI_API_KEY=sk-你的CPA生成密钥在这里 # 可选:OpenClaw 网关令牌(onboard 会自动生成) OPENCLAW_GATEWAY_TOKEN=your-super-secret-token # 其他默认保持不动 OPENCLAW_PORT=18789 "@ 注意:OPENAI_BASE_URL 左边的端口/IP 随便改(对应 CPA 的左侧端口)。如果你在云服务器上跑 CPA,改成 http://你的服务器公网IP:9999/v1。OPENAI_API_KEY 必须是 CPA 管理面板里“配置面板 → 认证配置 → 生成”的密钥。
4.启动 OpenClaw(Docker 一键)
docker compose up -d第一次会自动运行 onboarding(向导),浏览器会打开 http://localhost:18789。
5.完成 onboarding(5 分钟)
- 选择语言 → 设置网关令牌(复制 .env 里的)
- 连接消息渠道(推荐先连 Telegram 或 WhatsApp)
- 模型自动识别为你的 CPA 代理(会显示自定义模型列表)
🐧 第三部分:Linux 云服务器部署(生产推荐)
# 创建目录mkdir-p ~/openclaw &&cd ~/openclaw # 克隆并启动git clone https://github.com/openclaw/openclaw.git .cat> .env <<'EOF' OPENAI_BASE_URL=http://127.0.0.1:9999/v1 OPENAI_API_KEY=sk-你的CPA密钥 OPENCLAW_GATEWAY_TOKEN=your-super-secret-token OPENCLAW_PORT=18789 EOF# 一键启动(官方脚本最稳) ./docker-setup.sh 云服务器别忘了安全组放行 18789 端口(OpenClaw 网关)和 CPA 的 9999 端口。
🎯 第四部分:高级配置(让 OpenClaw 识别 CPA 自定义模型)
默认情况下,通过 .env 设置的 OPENAI_BASE_URL 和 OPENAI_API_KEY 已经足够让 OpenClaw 使用你的 CPA 代理,并自动拉取 /v1/models 接口中 CPA 暴露的所有模型。
但是,如果你希望做到以下目标,就需要进行更精细的模型配置:
- 指定默认使用的模型(而不是让 OpenClaw 随机选第一个)
- 为特定模型设置更合适的上下文窗口、最大输出 token 等参数
- 为不同场景准备多个 provider(例如:一个走快速模型,一个走长上下文模型)
- 给模型起一个更友好的别名(如
codex-fast、deep-reason) - 明确告诉 OpenClaw 使用哪种 API 格式(responses 或 completions)
4.1 配置文件位置说明
OpenClaw 目前(2026 年主流版本)主要读取以下位置的模型配置(优先级从高到低):
./config/models.yaml(项目根目录下,手动创建最高优先)./agents/defaults.yaml(部分版本放在这里)- Web 管理界面 →「设置」→「模型提供者」→ 手动添加(会持久化到 volume 里)
推荐做法:在 OpenClaw 项目根目录(和 .env 同级)新建或编辑 config/models.yaml
4.2 完整推荐配置示例(带详细注释)
在 OpenClaw 根目录创建或编辑文件:
# Windows PowerShell New-Item -ItemType File -Force-Path config/models.yaml # Linux / macOStouch config/models.yaml 然后填入以下内容(根据实际情况修改模型名称、端口、密钥):
# config/models.yaml# ────────────────────────────────────────────────# 这是 OpenClaw 可识别的模型提供者配置文件# 所有字段均为小写 snake_case,注意不要写成 camelCase# ────────────────────────────────────────────────models:providers:# 给这个 provider 起的内部代号,随意但建议有意义cpa-main:# 必须和 .env 里的 OPENAI_BASE_URL 保持一致(或覆盖它)base_url:"http://host.docker.internal:9999/v1"# ← Windows/macOS Docker Desktop 用这个# base_url: "http://127.0.0.1:9999/v1" # ← Linux 同机用这个# base_url: "http://192.168.1.100:31234/v1" # ← 不同机器用实际内网IP:端口# 必须使用你在 CPA 管理面板生成的密钥api_key:"sk-cpa-202603xxxxxxxxxxxxxxxxxxxxxxxxxxxx"# CPA 目前最常用的是 openai 的 responses 格式(新版兼容性更好)# 如果你的 CPA 配置里显示使用 completions 风格,可改为 openai-completionsapi_format:"openai-responses"# 这里列出你希望 OpenClaw 认识的模型(可以只列部分)models:-id:"gpt-5.2-codex"# ← 必须和 CPA /v1/models 返回的 id 完全一致name:"Codex 超级编程模型"# 显示名称,可自定义context_window:131072# 建议填写真实值,避免截断max_output_tokens:32768description:"擅长复杂代码生成、长文档理解、函数式编程"-id:"gpt-4o-mini-fast"name:"快速对话模型"context_window:128000max_output_tokens:16384description:"日常问答、快速响应首选"# 默认使用的模型组合(最重要!)defaults:# 格式:provider代号/模型idprimary:"cpa-main/gpt-5.2-codex"# 开箱默认用这个模型fallback:"cpa-main/gpt-4o-mini-fast"# 出问题时自动降级fast:"cpa-main/gpt-4o-mini-fast"# 某些轻量任务强制走快速模型保存文件后,重启 OpenClaw 容器 使配置生效:
docker compose restart # 或完整重启# docker compose down && docker compose up -d4.3 验证自定义模型是否生效
方法一: 在浏览器打开 OpenClaw Web 界面(默认http://localhost:18789)
→ 左侧菜单「设置」→「模型」
应该能看到你刚刚定义的模型名称和描述,而不是一堆原始 id。
方法二: 直接测试指令
请用 gpt-5.2-codex 模型帮我写一个 300 行带类型注解的 FastAPI 项目模板 如果成功调用,说明配置正确。
第五部分:常用运维与调试命令速查
# 查看 OpenClaw 主容器日志(最常用)docker logs -f openclaw-gateway # 查看所有容器状态docker compose ps# 进入容器内部查看文件(高级)docker compose exec openclaw-gateway bash# 强制重新拉取镜像(当上游更新时)docker compose pull &&docker compose up -d# 完全清理重来(谨慎,会丢失部分持久化数据)docker compose down -v&&docker compose up -d🚑 附录:小白排错 + 常见问题
1.连不上 OpenClaw?
Bashdocker logs openclaw-gateway -f看到Gateway ready on :18789就 OK。检查防火墙/安全组。
2.模型调用报错 “invalid api key”?
- 确认
OPENAI_API_KEY完全复制(无空格) - CPA 管理面板里该密钥是否已保存并启用
3.想切换模型?
在 Telegram 里直接说:“切换到 gpt-5.2-codex” 即可(OpenClaw 支持动态切换)。
4.想让 OpenClaw 也走 CPA 的多账号自动切换?
不需要额外操作!CPA 已经在后端做了额度切换,OpenClaw 只管发请求。
🎉 完工!现在你拥有了一个真正的“数字分身”
- CPA 负责稳定 API
- OpenClaw 负责 24/7 执行任务
- 全部本地/自托管,无隐私泄露、无额度焦虑
- 尽情享受你的 AI 超级节点吧!🦞✨