--- 通过逆向 WebChat 协议打造 OpenClaw 的“万能胶水” ---

摘要

在 OpenClaw 的二次开发中,官方推荐的 Channel 扩展模式往往伴随着较高的开发和部署成本。本文介绍了一种更直接的“降维打击”方案:通过逆向工程解析 Gateway 与 WebChat 之间的 WebSocket 通信协议,构建一个通用适配器(Universal Adapter)。该适配器能将任何外部程序(CLI、脚本、第三方 UI)伪装成官方 WebChat 客户端,从而实现零后端修改接入,并天然支持会话历史同步


正文内容

1. 缘起:为什么我们需要这层“胶水”?

在 OpenClaw 的生态中,如果你想让一个外部系统(比如一个 Python 脚本、一个 IoT 设备或者一个自定义网页)和 Agent 对话,官方的标准答案通常是:“去开发一个 Custom Channel 吧。”

但在实际工程中,开发 Channel 存在明显的痛点:

  1. 链路长:你需要理解 Gateway 的插件机制,编写服务端代码,重新部署 Gateway。
  2. 维护重:每个不同的端都要适配一遍,无法复用。
  3. 数据隔离:自定义 Channel 产生的对话数据,往往难以直接在官方提供的 Web 界面中无缝查看。

工程师的思维是懒惰的,也是敏锐的。 既然官方自带的 WebChat 可以完美地和 Gateway 通信,且每个 OpenClaw 实例都默认支持,那为什么不直接复用这条通道呢?

只要我们能通过代码完美模拟 WebChat 的握手和通信协议,我们就拥有了一个**“万能胶水”**——无需修改服务端一行代码,就能把任何项目“粘”到 OpenClaw 上。

2. 核心原理:协议逆向与伪装

本方案的核心不在于“对接接口”,而在于**“行为模拟”**。

2.1 架构对比
  • 传统 Channel 模式:需在 Gateway 侧开发插件,通过特定的 API 进行转换。
  • 本方案(胶水模式):适配器(Adapter)运行在客户端侧,它在网络层面上完全伪装成了浏览器。Gateway 根本不知道对面是一个 Python 脚本还是 Chrome 浏览器,因此所有的鉴权、流式输出、历史记录保存机制都天然生效。
2.2 协议交互时序

通过抓包分析(Wireshark/DevTools),我们还原了 OpenClaw Gateway 的 WebSocket 握手协议,并将其封装在 SDK 中:

OpenClaw Gateway胶水适配器 (Python SDK)任意客户端 (CLI/App)OpenClaw Gateway胶水适配器 (Python SDK)任意客户端 (CLI/App)1. 身份伪装 (Handshake)此时 Gateway 认为有一个"Web用户"上线了2. 消息透传 (Streaming)loop[流式响应]历史记录自动存入数据库create_connected_from_env()读取 Token/AgentIDWebSocket Connect (Headers: Origin, Auth...)101 Switching Protocolsstream_chat("你好,Agent")发送 JSON 协议帧 (Type: Chat)WebSocket Frame (Chunk)解析协议包,提取 Contentyield 纯文本片段

3. 实战:三步实现“零侵入”接入

为了让这层“胶水”真正通用,我将其封装为 openclaw-webchat-adapter,屏蔽了底层复杂的协议帧处理。

3.1 安装与配置

这一步体现了“胶水”的特性:即插即用。

pip install openclaw-webchat-adapter 

创建 .env 文件,填入你的 OpenClaw 服务地址。因为我们是模拟 WebChat,所以需要的配置和浏览器里看到的一模一样:

# .env 配置示例 OPENCLAW_GATEWAY_URL=ws://127.0.0.1:8080/socket # Gateway 的 WebSocket 地址 OPENCLAW_GATEWAY_TOKEN=eyJhbGciOiJIUz... # 你的用户 Token OPENCLAW_SESSION_KEY=12345-abcde... # 当前连接的会话id 
3.2 极简代码示例

以下是一个最小化的实现。你可以把它看作是一个 Headless WebChat

""" OpenClaw 通用适配器示例 目标:将终端 (Console) 变成 OpenClaw 的聊天窗口 """import sys # 引入我们的"胶水"适配器from openclaw_webchat_adapter.ws_adapter import OpenClawChatWsAdapter as adapter defmain()->int:# 1. 一键连接:自动读取环境变量,完成复杂的握手协议print("正在连接 OpenClaw Gateway...")try: connect = adapter.create_connected_from_env()print("✅ 连接成功!(伪装 WebChat 模式)")except Exception as e:print(f"❌ 连接失败: {e}")return1# 2. 交互循环try:whileTrue:# 获取用户输入 query =input("\n[我] > ").strip()ifnot query:continueif query.lower()in("/exit","/quit"):breakprint("[Agent] > ", end="")# 3. 流式透传:SDK 帮你处理了所有分包逻辑# 这里返回的 chunk 已经是清洗过的纯文本for chunk in connect.stream_chat(query):print(chunk, end="", flush=True)print("")# 换行except KeyboardInterrupt:print("\n再见!")finally:# 释放连接资源 connect.stop()return0if __name__ =="__main__": sys.exit(main())
在这里插入图片描述


这里我成功的接入了自己的ai聊天平台项目中,并且还加入再了虾聊ai聊天社区中

在这里插入图片描述


4. 总结与思考

4.1 方案价值:通用性与一致性
  • 无缝嵌入:因为接口极其简单(stream_chat),你可以把它嵌入到 Django/FastAPI 后端、Qt 桌面应用、甚至是树莓派的自动化脚本中。
  • 历史漫游:这是一个巨大的隐形优势。因为 Gateway 认为你是 WebChat 用户,所以你在 CLI 里的所有聊天记录,打开浏览器登录 OpenClaw 官网时,全部都在。这对于调试 Agent Prompt 或回溯对话非常有用。
4.2 局限性
  • 依赖稳定性:这本质上是一种 Protocol Reverse Engineering。如果 OpenClaw 官方大幅修改了 WebSocket 的通信 Payload 结构,适配器代码需要随之更新(虽然 WebChat 协议通常为了兼容性会保持稳定)。
  • 并发模型:Python 的 WebSocket 依赖 threadingasyncio,在高并发场景下作为中间件转发时,需要注意连接池的管理。

5. 项目资源

6. 维护

我会一直维护这个包,预计12号之前还还能实现支持获取会话聊天消息的接口

Read more

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。 先说结论 如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打: * OpenClaw 负责 Agent 编排(工具、文件、会话、渠道) * OpenAI Codex 5.3 负责核心编码能力 * Feishu 作为消息入口(随时远程下指令) * 本地 Workspace 放在 G:\claw,项目资产可控 这套的性价比点在于: 1. 不需要重搭一整套复杂平台 2. Codex 5.3 编码质量明显高于普通通用模型

内网穿透的应用-随时随地用 OpenClaw!打造你的专属随身 AI

内网穿透的应用-随时随地用 OpenClaw!打造你的专属随身 AI

前言 如果你已经完成了 OpenClaw 的部署,却还只局限于 “在家用电脑访问”,那真的太可惜了。这款拥有 230K + 星标的神级项目,最大的亮点就是 “本地运行、数据私有”,但局域网的限制,却让它的实用性大打折扣 —— 试想一下,当你在公司加班,需要用 OpenClaw 帮忙写一段代码、分析一份报告,却因为无法访问家里的电脑而束手无策;当你外出旅行,想让 AI 生成一份旅行攻略,却只能等回到家才能操作。这样的 OpenClaw,显然没有发挥出它应有的价值。 我在使用 OpenClaw 的过程中,也曾被这个问题困扰许久。直到接触到内网穿透工具,才彻底解决了这个痛点。不同于传统的端口映射,无需修改路由器设置,无需公网 IP,只需简单几步安装配置,就能把本地的 OpenClaw 服务映射到公网。这意味着,无论你身处何地,只要有网络,手机、平板、笔记本都能轻松连接到家里的

大模型大比对:2026主流AI大模型全方位横评与选型指南

大模型大比对:2026主流AI大模型全方位横评与选型指南

引言:AI大模型时代,选对模型比用好模型更重要 步入2026年,AI大模型行业早已告别野蛮生长,进入精细化、场景化、差异化竞争的新阶段。从海外OpenAI、Google、Anthropic三巨头领跑,到国内通义千问、智谱GLM、Kimi、文心一言、豆包等模型强势崛起,市面上可供选择的大模型数量繁多,性能、价格、擅长领域各有千秋。对于普通用户、职场人、开发者以及企业而言,面对琳琅满目的AI产品,盲目跟风选择往往会造成效率浪费和成本损耗,只有摸清各大模型的核心优势、短板与适用场景,才能精准匹配需求,让AI真正成为高效助手。 本文精选海内外10款主流大模型,涵盖头部闭源商用模型、高性价比国产模型、开源标杆模型,从核心参数、文本创作、逻辑推理、代码能力、多模态表现、长文本处理、使用成本、隐私合规八大维度展开全方位对比,深入剖析各模型差异,同时给出不同场景下的选型建议,助力读者找到最适合自己的AI大模型。 一、参评大模型一览:覆盖海内外主流选手 本次对比选取当前市场渗透率高、用户口碑好、技术实力领先的10款大模型,

猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》

猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》

猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》 📌摘要 🚀大消息来啦!猫头虎AI赠书第11期火热启动🔥!这次,我为大家精选了《人人都是AI程序员:TRAE+Cursor从0到1全栈实战 》📚。想要免费拿到这本书?简单到不能再简单:在文章下方留言 "我要学习AI编程! !!" 💬。3月30日,我将为大家挑选出②位幸运读者🎁,并在评论区与朋友圈公布!手里还有宝贵的源代码,等你来夺🌈!赶快行动起来,机会难得! 📢引言 亲爱的朋友们,大家好!👋是我,猫头虎博主!今天,我为大家带来了猫头虎AI赠书第11期的特别惊喜🎊!这次我将赠送的是一本精心挑选的 《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》 🌟。这本书内容丰富,无论你是新手还是老鸟,都能找到属于你的知识宝藏🔍。希望大家能喜欢这个小惊喜,和我一起分享这场编程的盛宴!🥳 文章目录 * 猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》 * 📖关于这本书 * 为什么选择这本书? 🤔