ClawPanel — 开源 OpenClaw 智能管理面板,20+ 通道接入 / 多模型配置 / Docker 一键部署

ClawPanel — 开源 OpenClaw 智能管理面板,20+ 通道接入 / 多模型配置 / Docker 一键部署
🐾 一个比官方控制台更强大的 OpenClaw 可视化管理工具,支持 QQ、微信、Telegram、Discord 等 20+ 通道统一管理,多 AI 模型提供商配置,技能中心,版本管理,环境检测,Docker 一键部署。

📌 项目简介

ClawPanel 是一个基于 React + TypeScript + Express 的 OpenClaw 智能管理面板,旨在为 OpenClaw 用户提供一个比官方控制台更强大、更直观的可视化管理工具。

项目前身是 openclaw-im-manager(一个简单的 QQ 机器人管理后台),经过 4 个大版本迭代,现已进化为功能完整的 OpenClaw 全能管理面板

GitHub 地址https://github.com/zhaoxinyi02/ClawPanel


✨ 核心功能一览

1. 📊 智能仪表盘

动态展示已连接通道卡片、AI 模型状态、运行时间、内存占用、今日消息统计、最近活动流。

亮点:仅显示已连接的通道,未连接的通道不再占位,界面更清爽。

请添加图片描述

2. 📡 通道管理(20+ 通道)

支持 20+ 种通道的统一配置,分为内置通道和插件通道两大类:

内置通道(8 种):

通道说明
QQ (NapCat)扫码/快速/账密登录,唤醒概率、触发词、戳一戳回复、审核请求集成
微信扫码登录,基于 wechatbot-webhook
TelegramBot Token + Webhook
DiscordBot Token + Guild 配置
WhatsAppQR 扫码
SlackSocket Mode
Signalsignal-cli REST API
Google Chat服务账号 + Webhook

插件通道(12+ 种):
飞书 / Lark · 钉钉 · 企业微信 · QQ 官方 Bot · IRC · Mattermost · Microsoft Teams · LINE · Matrix · Twitch · BlueBubbles · WebChat

亮点

  • 已连接的通道自动置顶显示

QQ 审核请求(好友/入群)直接集成在 QQ 通道配置页面中,不再需要单独页面

请添加图片描述

3. ⚡ 技能中心 + ClawHub 商店

  • 已安装技能:从服务端实时扫描 OpenClaw 已安装的插件,一键启用/禁用,搜索筛选
  • ClawHub 商店:浏览 13+ 可安装技能,点击即可获取安装命令
请添加图片描述

4. ⚙️ 系统配置(6 大模块)

这是 v4.1 最大的升级,全新 6 标签页深度配置:

🧠 模型配置(多提供商)

支持 8+ 主流 AI 厂商一键填充:

提供商支持模型
OpenAIGPT-4o, GPT-4o-mini, o1, o3-mini
AnthropicClaude Sonnet 4.5, Claude Haiku 3.5, Claude 3 Opus
GoogleGemini 2.0 Flash, Gemini 2.0 Pro, Gemini 1.5 Pro
DeepSeekDeepSeek Chat, DeepSeek Reasoner
NVIDIA NIMMiniMax, Llama 3.1 405B
GroqLlama 3.3 70B, Mixtral 8x7B
Together AILlama 3.1 70B Instruct Turbo
OpenRouter聚合所有厂商模型

每个提供商可配置:Base URL、API Key、API 类型、模型列表。点击厂商按钮自动填充 URL。

请添加图片描述
📦 版本管理
  • 当前版本 / 最新版本对比
  • 更新检测与提示
  • 配置备份与恢复:一键备份 openclaw.json,恢复前自动备份当前配置
请添加图片描述
🖥️ 环境检测

自动检测运行环境:

  • 操作系统信息(平台、架构、内核、CPU 核心数、内存)
  • 软件版本检测(Node.js、Docker、Git、OpenClaw、npm)
  • 缺失软件的快速安装指南
请添加图片描述
其他配置模块
  • 身份 & 消息:助手名称、头像、系统提示词、Agent 默认设置
  • 通用配置:网关、工具、Hooks、会话、认证密钥、原始 JSON 查看器
  • 文档管理:浏览和编辑 OpenClaw 目录下的 Markdown 文档

5. 📋 活动日志

增强版日志系统:

  • 按来源筛选(QQ / Bot回复 / 微信 / 系统)
  • 按类型筛选(文本 / 媒体 / 表情)
  • 关键词搜索
  • 一键导出 JSON
请添加图片描述

6. ⏰ 定时任务

cron/jobs.json 读取真实定时任务,支持 Cron 表达式配置、启用/暂停/删除、运行状态追踪。

在这里插入图片描述

🏗️ 技术架构

┌──────────────────────────────────────────────────────┐ │ Docker Compose │ │ │ │ ┌─────────────────────────────────────────────────┐ │ │ │ openclaw-qq Container │ │ │ │ ┌─────────┐ ┌──────────┐ ┌───────────┐ │ │ │ │ │ NapCat │ │ClawPanel │ │ Frontend │ │ │ │ │ │ (QQ) │←→│ Backend │←→│ (React) │ │ │ │ │ │ :6099 │ │ :6199 │ │ │ │ │ │ │ └─────────┘ └────┬─────┘ └───────────┘ │ │ │ └─────────────────────┼───────────────────────────┘ │ │ │ HTTP callback │ │ ┌─────────────────────┼───────────────────────────┐ │ │ │ openclaw-wechat Container │ │ │ │ ┌──────────────────┴──────────────────────┐ │ │ │ │ │ wechatbot-webhook (微信 Web 协议) │ │ │ │ │ └─────────────────────────────────────────┘ │ │ │ └─────────────────────────────────────────────────┘ │ └──────────┬──────────────┬────────────────────────────┘ │ │ ┌────┴────┐ ┌────┴────┐ │ OpenClaw│ │ Browser │ │ Gateway │ │ClawPanel│ └─────────┘ └─────────┘ 

技术栈:

层级技术
QQ 协议NapCat (OneBot11 WebSocket)
微信协议wechatbot-webhook (Web 微信)
后端TypeScript · Express · WebSocket
前端React · Vite · TailwindCSS · Lucide Icons
AI 引擎OpenClaw — 支持 GPT-4o / Claude / Gemini / DeepSeek 等
部署Docker Compose 双容器编排

🚀 快速开始

前提条件

三步部署

# 1. 克隆项目git clone https://github.com/zhaoxinyi02/ClawPanel.git cd ClawPanel # 2. 配置环境变量cp .env.example .env # 编辑 .env,设置 ADMIN_TOKEN(登录密码)、QQ_ACCOUNT 等# 3. 启动docker compose up -d 

启动后访问 http://你的服务器IP:6199,输入密码登录即可。

在这里插入图片描述

配置 OpenClaw 连接

# Linux / macOSchmod +x setup-openclaw.sh && ./setup-openclaw.sh # Windows PowerShell powershell -ExecutionPolicy Bypass -File setup-openclaw.ps1 

📋 版本演进

版本日期主要变化
v1.02026-02-08基础管理后台 + NapCat Docker 集成
v2.02026-02-09全新 React UI,集成 QQ 登录
v3.02026-02-10QQ + 微信双通道,跨平台支持
v4.02026-02-13品牌升级为 ClawPanel,8 通道 + 技能中心 + 系统配置
v4.12026-02-1420+ 通道、多模型配置、版本管理、环境检测、文档管理

⚠️ 免责声明

本项目仅供学习研究使用,严禁用于任何商业用途。
  • 使用第三方客户端登录 QQ/微信可能违反腾讯服务协议,存在封号风险,请使用小号测试
  • 本项目作者未进行任何逆向工程,仅做开源项目整合
  • 使用者需自行承担一切风险和法律责任

🔗 相关链接


如果觉得项目有用,欢迎到 GitHub 给个 ⭐ Star!有问题可以提 Issue 或在评论区留言。

Read more

超详细!PicGo+GitCode+Typora 图床搭建全攻略(新手友好版)

超详细!PicGo+GitCode+Typora 图床搭建全攻略(新手友好版)

一、为什么选这组组合? 对于程序员、笔记爱好者或技术写作者来说,使用 Markdown 写作时,图片的存储与同步一直是核心痛点——本地图片无法跨设备访问,直接插入网络图片又可能面临失效、丢失的风险。 图床(Image Hosting)则能完美解决这一问题:通过将图片上传至远程服务器并生成稳定可访问的外链,实现「一次上传、多端复用」。而在国内网络环境下,「PicGo+GitCode+Typora」 的组合堪称性价比拉满的图床解决方案,核心优势如下: * 免费无限制:GitCode 提供免费公开仓库,图片永久存储,无流量 / 容量限制 * 国内加速:GitCode 服务器位于国内,相比 GitHub 加载速度快 50%+,无需科学上网 * 无缝集成:Typora 粘贴 / 拖拽图片自动上传,无需手动处理链接 * 版本可控:GitCode 自带版本管理,图片修改、回滚更方便 * 可自定义:

By Ne0inhk
开源模型应用落地-glm模型小试-glm-4-9b-chat-Gradio集成(三)

开源模型应用落地-glm模型小试-glm-4-9b-chat-Gradio集成(三)

一、前言     GLM-4是智谱AI团队于2024年1月16日发布的基座大模型,旨在自动理解和规划用户的复杂指令,并能调用网页浏览器。其功能包括数据分析、图表创建、PPT生成等,支持128K的上下文窗口,使其在长文本处理和精度召回方面表现优异,且在中文对齐能力上超过GPT-4。与之前的GLM系列产品相比,GLM-4在各项性能上提高了60%,并且在指令跟随和多模态功能上有显著强化,适合于多种应用场景。尽管在某些领域仍逊于国际一流模型,GLM-4的中文处理能力使其在国内大模型中占据领先地位。该模型的研发历程自2020年始,经过多次迭代和改进,最终构建出这一高性能的AI系统。     在开源模型应用落地-glm模型小试-glm-4-9b-chat-快速体验(一)已经掌握了glm-4-9b-chat的基本入门。     在开源模型应用落地-glm模型小试-glm-4-9b-chat-批量推理(二)已经掌握了glm-4-9b-chat的批量推理。     本篇将介绍如何集成Gradio进行页面交互。 二、术语 2.1.GLM-4-9B     是智谱 AI 推出的一个开源预训

By Ne0inhk
【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线

【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线

系列篇章💥 No.文章1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合11【AI大模型前沿】Qwen2.5-Omni:

By Ne0inhk
开源模型应用落地-qwen模型小试-Qwen2.5-7B-Instruct-tool usage入门-并行调用多个tools(五)

开源模型应用落地-qwen模型小试-Qwen2.5-7B-Instruct-tool usage入门-并行调用多个tools(五)

一、前言     Qwen-Agent 是一个利用开源语言模型Qwen的工具使用、规划和记忆功能的框架。其模块化设计允许开发人员创建具有特定功能的定制代理,为各种应用程序提供了坚实的基础。同时,开发者可以利用 Qwen-Agent 的原子组件构建智能代理,以理解和响应用户查询。     本篇将介绍如何在Qwen-Agent中并行调用多个tools。     相关文章     使用vLLM(不使用Qwen-Agent的方式)进行工具调用:开源模型应用落地-Qwen2.5-7B-Instruct与vllm实现推理加速的正确姿势-Docker-Tools助力(四)      Qwen-Agent系列教程:

By Ne0inhk