进阶实战:CLIProxyAPI Plus + OpenClaw 零配置结合,打造你的专属 24/7 AI 超级助手(保姆级 + 原理级教程)

进阶实战:CLIProxyAPI Plus + OpenClaw 零配置结合,打造你的专属 24/7 AI 超级助手(保姆级 + 原理级教程)
相关链接(仍在活跃):CLIProxyAPI PlusOpenClaw

昨天我们已经用 Docker 一键部署了 CLIProxyAPI Plus(简称 CPA),生成了专属 API 密钥,并通过 http://你的IP:9999/v1 实现了 OpenAI 兼容端点。今天我们继续进阶:把这个代理完美对接 OpenClaw(开源个人 AI 助手,前身 Clawdbot),让 OpenClaw 通过你的 CPA 代理调用多账号 OpenAI 模型,实现 WhatsApp/Telegram/Slack 等消息渠道的自动任务执行、代码编写、邮件处理、日历管理等全自动化能力。

为什么必须结合?

CPA 负责账号集中管理、额度自动切换、国内直连。
OpenClaw 负责“行动层”:它不是聊天机器人,而是真正的 Agent,能调用工具、读写文件、操作浏览器、集成 50+ App。
两者结合 = 一个本地运行的 Claude/GPT 级超级助手,完全掌控在你手里,无限额度、无 API 限流。
网上很多教程直接改官方 config 导致重启后失效。今天我们依然遵循“冒号法则”和“只改左边”原则,保证你换硬盘、换端口、换机器也能一次成功!

💡 核心原理:OpenClaw 的“OpenAI 兼容层”揭秘

OpenClaw 支持任意 OpenAI-compatible endpoint(包括你的 CPA)。核心配置只有两个环境变量:

  • OPENAI_BASE_URL:指向你的 CPA 地址(必须以 /v1 结尾)。
  • OPENAI_API_KEY:你在 CPA 管理面板里生成的密钥(sk- 开头)。

优先级顺序(技术深度):

  1. ~/.openclaw/.env(全局最推荐)
  2. 当前目录 .env
  3. 运行时环境变量

OpenClaw 内部会自动把这两个变量注入默认的 openaiprovider。如果你想用 CPA 里的自定义模型(如 gpt-5.2-codex),可以额外定义 models.providers(后面会教)。

端口/路径法则(和 CPA 完全一致):

  • 左边(宿主机):随便改
  • 右边(容器内):绝对不能动

准备好了吗?我们继续用 Docker 部署,保证和小白昨天的操作一模一样流畅!


🛠️ 第一部分:准备工作(假设 CPA 已运行)

确保你的 CPA 容器正在运行:

dockerps|grep cli-proxy-api-plus 

看到 9999:8317 且状态 Up 即可。

在浏览器打开 http://localhost:9999/management.html(或服务器 IP),登录后确认:

  • 已上传 OpenAI JSON 密钥文件
  • 已生成 API 密钥(复制下来,后面要用)

🪟 第二部分:Windows 本地部署 OpenClaw(推荐新手)

1.创建专属目录(可随意改路径)
以管理员 PowerShell 执行:

# 这里的 D:\AI-Proxy 你可以改成任何你想放的路径!New-Item-ItemType Directory -Force -Path D:\AI-Proxy\auths New-Item-ItemType Directory -Force -Path D:\AI-Proxy\logs cd D:\AI-Proxy 

2.一键拉取官方 Docker 配置(最稳方式)

# 方法1:git 克隆(推荐)git clone https://github.com/openclaw/openclaw.git .# 方法2:如果 git 不方便,可直接下载最新 release zip 并解压到当前目录# https://github.com/openclaw/openclaw/releases/latest

3.生成并修改 .env(最关键一步!)

Set-Content-Path .env -Value @" # === CPA 代理核心配置(只改下面两行)=== OPENAI_BASE_URL=http://localhost:9999/v1 OPENAI_API_KEY=sk-你的CPA生成密钥在这里 # 可选:OpenClaw 网关令牌(onboard 会自动生成) OPENCLAW_GATEWAY_TOKEN=your-super-secret-token # 其他默认保持不动 OPENCLAW_PORT=18789 "@ 
注意:OPENAI_BASE_URL 左边的端口/IP 随便改(对应 CPA 的左侧端口)。如果你在云服务器上跑 CPA,改成 http://你的服务器公网IP:9999/v1。OPENAI_API_KEY 必须是 CPA 管理面板里“配置面板 → 认证配置 → 生成”的密钥。

4.启动 OpenClaw(Docker 一键)

docker compose up -d

第一次会自动运行 onboarding(向导),浏览器会打开 http://localhost:18789

5.完成 onboarding(5 分钟)

  • 选择语言 → 设置网关令牌(复制 .env 里的)
  • 连接消息渠道(推荐先连 Telegram 或 WhatsApp)
  • 模型自动识别为你的 CPA 代理(会显示自定义模型列表)

🐧 第三部分:Linux 云服务器部署(生产推荐)

# 创建目录mkdir-p ~/openclaw &&cd ~/openclaw # 克隆并启动git clone https://github.com/openclaw/openclaw.git .cat> .env <<'EOF' OPENAI_BASE_URL=http://127.0.0.1:9999/v1 OPENAI_API_KEY=sk-你的CPA密钥 OPENCLAW_GATEWAY_TOKEN=your-super-secret-token OPENCLAW_PORT=18789 EOF# 一键启动(官方脚本最稳) ./docker-setup.sh 

云服务器别忘了安全组放行 18789 端口(OpenClaw 网关)和 CPA 的 9999 端口。


🎯 第四部分:高级配置(让 OpenClaw 识别 CPA 自定义模型)

默认情况下,通过 .env 设置的 OPENAI_BASE_URLOPENAI_API_KEY 已经足够让 OpenClaw 使用你的 CPA 代理,并自动拉取 /v1/models 接口中 CPA 暴露的所有模型。

但是,如果你希望做到以下目标,就需要进行更精细的模型配置:

  • 指定默认使用的模型(而不是让 OpenClaw 随机选第一个)
  • 为特定模型设置更合适的上下文窗口、最大输出 token 等参数
  • 为不同场景准备多个 provider(例如:一个走快速模型,一个走长上下文模型)
  • 给模型起一个更友好的别名(如 codex-fastdeep-reason
  • 明确告诉 OpenClaw 使用哪种 API 格式(responses 或 completions)

4.1 配置文件位置说明

OpenClaw 目前(2026 年主流版本)主要读取以下位置的模型配置(优先级从高到低):

  1. ./config/models.yaml(项目根目录下,手动创建最高优先)
  2. ./agents/defaults.yaml(部分版本放在这里)
  3. Web 管理界面 →「设置」→「模型提供者」→ 手动添加(会持久化到 volume 里)

推荐做法:在 OpenClaw 项目根目录(和 .env 同级)新建或编辑 config/models.yaml

4.2 完整推荐配置示例(带详细注释)

在 OpenClaw 根目录创建或编辑文件:

# Windows PowerShell New-Item -ItemType File -Force-Path config/models.yaml # Linux / macOStouch config/models.yaml 

然后填入以下内容(根据实际情况修改模型名称、端口、密钥):

# config/models.yaml# ────────────────────────────────────────────────# 这是 OpenClaw 可识别的模型提供者配置文件# 所有字段均为小写 snake_case,注意不要写成 camelCase# ────────────────────────────────────────────────models:providers:# 给这个 provider 起的内部代号,随意但建议有意义cpa-main:# 必须和 .env 里的 OPENAI_BASE_URL 保持一致(或覆盖它)base_url:"http://host.docker.internal:9999/v1"# ← Windows/macOS Docker Desktop 用这个# base_url: "http://127.0.0.1:9999/v1" # ← Linux 同机用这个# base_url: "http://192.168.1.100:31234/v1" # ← 不同机器用实际内网IP:端口# 必须使用你在 CPA 管理面板生成的密钥api_key:"sk-cpa-202603xxxxxxxxxxxxxxxxxxxxxxxxxxxx"# CPA 目前最常用的是 openai 的 responses 格式(新版兼容性更好)# 如果你的 CPA 配置里显示使用 completions 风格,可改为 openai-completionsapi_format:"openai-responses"# 这里列出你希望 OpenClaw 认识的模型(可以只列部分)models:-id:"gpt-5.2-codex"# ← 必须和 CPA /v1/models 返回的 id 完全一致name:"Codex 超级编程模型"# 显示名称,可自定义context_window:131072# 建议填写真实值,避免截断max_output_tokens:32768description:"擅长复杂代码生成、长文档理解、函数式编程"-id:"gpt-4o-mini-fast"name:"快速对话模型"context_window:128000max_output_tokens:16384description:"日常问答、快速响应首选"# 默认使用的模型组合(最重要!)defaults:# 格式:provider代号/模型idprimary:"cpa-main/gpt-5.2-codex"# 开箱默认用这个模型fallback:"cpa-main/gpt-4o-mini-fast"# 出问题时自动降级fast:"cpa-main/gpt-4o-mini-fast"# 某些轻量任务强制走快速模型

保存文件后,重启 OpenClaw 容器 使配置生效:

docker compose restart # 或完整重启# docker compose down && docker compose up -d

4.3 验证自定义模型是否生效

方法一: 在浏览器打开 OpenClaw Web 界面(默认http://localhost:18789
→ 左侧菜单「设置」→「模型」
应该能看到你刚刚定义的模型名称和描述,而不是一堆原始 id。
方法二: 直接测试指令

请用 gpt-5.2-codex 模型帮我写一个 300 行带类型注解的 FastAPI 项目模板 

如果成功调用,说明配置正确。


第五部分:常用运维与调试命令速查

# 查看 OpenClaw 主容器日志(最常用)docker logs -f openclaw-gateway # 查看所有容器状态docker compose ps# 进入容器内部查看文件(高级)docker compose exec openclaw-gateway bash# 强制重新拉取镜像(当上游更新时)docker compose pull &&docker compose up -d# 完全清理重来(谨慎,会丢失部分持久化数据)docker compose down -v&&docker compose up -d

🚑 附录:小白排错 + 常见问题

1.连不上 OpenClaw?

Bashdocker logs openclaw-gateway -f

看到Gateway ready on :18789就 OK。检查防火墙/安全组。

2.模型调用报错 “invalid api key”?

  • 确认 OPENAI_API_KEY 完全复制(无空格)
  • CPA 管理面板里该密钥是否已保存并启用

3.想切换模型?
在 Telegram 里直接说:“切换到 gpt-5.2-codex” 即可(OpenClaw 支持动态切换)。

4.想让 OpenClaw 也走 CPA 的多账号自动切换?
不需要额外操作!CPA 已经在后端做了额度切换,OpenClaw 只管发请求。


🎉 完工!现在你拥有了一个真正的“数字分身”

  • CPA 负责稳定 API
  • OpenClaw 负责 24/7 执行任务
  • 全部本地/自托管,无隐私泄露、无额度焦虑
  • 尽情享受你的 AI 超级节点吧!🦞✨

Read more

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果 你不需要配置环境、不用写一行推理代码、甚至不用打开终端——只要把一张截图拖进浏览器窗口,几秒钟后,它就能告诉你图里写了什么、画了什么、哪里有问题。这不是未来预告,而是你现在就能在本地跑起来的真实体验。 GLM-4.6V-Flash-WEB 是智谱AI最新开源的轻量级视觉语言模型,专为Web端实时交互而生。它不像某些“实验室模型”那样只存在于论文和Benchmark表格里,而是真正做到了:部署快、启动快、响应快、上手更快。一块RTX 3090,一个浏览器,一次拖拽,结果即刻呈现。 本文不讲训练原理,不列参数表格,不堆技术术语。我们只聚焦一件事:怎么用好它的Web界面?从零开始,到稳定产出,每一步都清晰可操作。 1. 为什么说“拖图就出结果”不是宣传话术? 很多多模态模型标榜“支持图文理解”,但实际用起来才发现:要装依赖、改路径、调精度、修CUDA版本、

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.