从零搭建Clawdbot+企微机器人:单向推送全流程指南(新手可玩)

从零搭建Clawdbot+企微机器人:单向推送全流程指南(新手可玩)

从零搭建Clawdbot+企微机器人:单向推送全流程指南(新手可玩)

本文针对非管理员用户(无企微后台权限),详细拆解从Clawdbot安装到企微机器人正常推送的全步骤,所有命令可直接复制,新手也能快速上手。

一、前置说明(必看)

1. 适用场景

非企微管理员,仅能创建「企微群机器人」,实现 Clawdbot→企微群单向推送 (无法接收企微消息回复,适合通知、告警、播报场景);若为管理员,可进一步实现双向对话(文末附拓展方向)。

2. 环境要求

支持 Mac/Linux/Windows(本文以Linux为例),需联网且能访问公网(企微Webhook需外部请求),最好直接就是美西的机器。

3. 核心工具

Clawdbot(AI机器人框架)、企微群机器人(Webhook)、Python依赖(requests库)。

二、第一步:安装Clawdbot(基础环境搭建)

Clawdbot支持一键安装,全程在系统终端操作,无需复杂配置。

1. 一键安装Clawdbot

打开终端,复制以下命令执行(Mac/Linux通用):

curl -fsSL https://clawd.bot/install.sh | bash 

2. 初始化Clawdbot(关键步骤)

安装完成后,终端会自动进入初始化流程,按以下选项依次选择:

  1. Select workspace :默认即可(路径为 ~/clawd),按回车确认。
  2. Select model :推荐选国产模型(如Qwen),新手直接选 qwen-portal/coder-model(无需额外配置API密钥)。
  3. 授权登录 Qwen,等待一段时间后,出现下面第一张图的鼠标选中的内容,复制网页到浏览器打开
  4. Select channel (QuickStart) :选 Skip for now(企微不在预设通道,后续自定义对接),按空格键勾选后回车。
  5. Configure skills now? :选 No(先打通推送,后续再配置技能),按空格键勾选后回车。
  6. Enable hooks? :选 Skip for now(无需钩子功能),按空格键勾选后回车。

3. 退出TUI(后续配置需用到终端)

在TUI界面按 Ctrl+C 退出,回到系统终端(后续修改配置、部署脚本需在此操作)。

第二步:创建企微群机器人(获取Webhook Key)

无需管理员权限,仅需为企微内部群创建机器人,获取推送所需的Webhook Key。

  1. 打开企微,进入目标内部群(外部群不支持机器人),点击右上角 → 找到 消息推送 → 点击 自定义消息推送
  2. 点击 新建机器人,输入机器人名称(如Clawdbot)、选择头像,点击 完成
  3. 创建成功后,会生成专属Webhook地址,复制该地址中的 Key部分 (示例地址:https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=123456-abcdef-7890,Key即为 123456-abcdef-7890),保存备用(后续需用到)。

第三步:部署企微推送技能脚本(核心对接)

Clawdbot需通过自定义技能脚本对接企微Webhook,本文提供优化版脚本(支持配置文件存储Key,兼顾安全与易用),直接复制部署即可。

1. 安装依赖库

终端执行以下命令,安装脚本所需的requests库:

pip install requests 

2. 确认Clawdbot技能目录

不同安装方式的技能目录不同,先执行命令确认目录(终端执行):

# 查看技能目录是否存在 
ls /usr/local/nodejs/lib/node_modules/clawdbot/skills/ 

若显示目录内容(如bluebubbles、github等技能文件),说明为系统级技能目录(本文默认此目录)

3. 部署技能脚本

终端执行以下命令,一键在正确目录生成脚本(系统级目录为例):


sudo cat > /usr/local/nodejs/lib/node_modules/clawdbot/skills/wecom_webhook.py << 'EOF'import requestsimport jsonimport osfrom pathlib import Pathfrom clawdbot_skill import BaseSkill, register_skill# 配置文件路径(存储企微Key,自动创建)CONFIG_PATH = Path.home() / ".clawdbot" / "wecom_config.json"# 初始化配置文件(首次运行自动生成)def init_config(): if not CONFIG_PATH.parent.exists(): CONFIG_PATH.parent.mkdir(parents=True, exist_ok=True) if not CONFIG_PATH.exists(): with open(CONFIG_PATH, "w", encoding="utf-8") as f: json.dump({"webhook_key": ""}, f)# 读取配置文件def get_config(): init_config() with open(CONFIG_PATH, "r", encoding="utf-8") as f: return json.load(f)# 写入配置文件(存储Key)def set_config(key: str, value: str): config = get_config() config[key] = value with open(CONFIG_PATH, "w", encoding="utf-8") as f: json.dump(config, f, indent=2)# 技能1:设置企微Webhook Key(仅需执行一次)@register_skill(name="wecom_set_key", description="Set WeCom webhook key (only once)")class WeComSetKeySkill(BaseSkill): def run(self, webhook_key: str): set_config("webhook_key", webhook_key) # 自动设置安全权限(仅当前用户可读) os.chmod(CONFIG_PATH, 0o600) return f"✅ 企微Key已保存!(已自动开启安全权限)"# 技能2:发送消息到企微群(核心功能)@register_skill(name="wecom_send", description="Send message to WeCom group (text/markdown)")class WeComWebhookSkill(BaseSkill): def run(self, content: str, msg_type: str = "text"): # 读取已保存的Key config = get_config() webhook_key = config.get("webhook_key", "") if not webhook_key: return "❌ 请先设置Key:run wecom_set_key webhook_key='你的Key'" # 拼接企微Webhook地址 url = f"https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key={webhook_key}" # 构造消息体(支持文本/Markdown) data = {"msgtype": msg_type, msg_type: {"content": content}} try: # 发送请求 resp = requests.post(url, json=data, timeout=10) result = resp.json() if result["errcode"] == 0: return f"✅ 推送成功!" else: return f"❌ 推送失败:{result['errmsg']}(错误码:{result['errcode']})" except Exception as e: return f"❌ 网络/未知错误:{str(e)}"EOF 

4. 给脚本加权限+重启Clawdbot

终端执行命令,确保脚本可被Clawdbot加载,同时重启生效:


# 给脚本加执行权限sudo chmod 755 /usr/local/nodejs/lib/node_modules/clawdbot/skills/wecom_webhook.py# 重启Clawdbot,加载新技能clawdbot restart 

第四步:测试推送(验证全流程)

进入Clawdbot TUI,执行简单命令即可测试推送,步骤如下:

  1. 终端执行命令,进入TUI:
    • clawdbot tui
  2. 在TUI输入框执行命令,设置企微Key(替换为第二步保存的Key,仅需执行一次):
    • run wecom_set_key webhook_key=“你的企微机器人Key”

若提示 ✅ 企微Key已保存!,说明Key配置成功。 也可以不要这个步骤, 直接在~/.clawdbot/wecom_config.json配置文件中配置好:

 * * * { "webhook_key": "这里填你的企微群机器人Webhook Key"} * * * * * * * * 
  1. 发送测试消息(文本格式):
    • run wecom_send content=“终于能推送啦!Clawdbot→企微群”

若提示 ✅ 推送成功!,同时企微群收到该消息,说明全流程打通。

 * * 
  1. 进阶测试(Markdown格式,支持加粗、标题、列表):
    • run wecom_send content=“### 🚀 Clawdbot推送通知\n核心功能:\n- 文本消息推送\n- Markdown格式支持\n> 新手也能轻松上手” msg_type=“markdown”

企微群会显示带样式的消息。

 * * 

四、进阶拓展方向(按需选择)

  1. 定时推送 :结合Clawdbot定时技能,实现每日日报、定时告警,命令示例:
    • run schedule add --cron “0 9 * * *” --command “run wecom_send content=‘每日早报:今日工作安排’”

(每天9点推送)。

 * * 
  1. 多群推送 :修改脚本支持多Key配置,实现同时推送到多个企微群(文末可留言获取多群脚本)。
  2. 双向对话 :若为企微管理员,可创建自建应用,用Webhook+事件订阅实现企微消息回调到Clawdbot,支持双向交互。

五、总结

本文通过「安装Clawdbot→创建企微机器人→部署脚本→测试推送」四步,实现了Clawdbot到企微群的单向推送,全程无需复杂开发,命令可直接复制。适合办公场景中的自动化通知、告警、内容分发需求,非技术背景用户也能快速落地。

若需进阶功能(多群推送、定时任务、双向对话),可留言说明需求,后续将针对性补充教程。动手试试,让AI机器人帮你解放双手吧!


第三方的白嫖地址我收集了几个,各位自行取用:
UniVibe:https://www.univibe.cc/console/auth?type=register&invite=MB8LFU
XXAPI: https://api.gemai.cc/register?aff=X1PG
GLM Coding :https://www.bigmodel.cn/glm-coding?ic=A9HPQXTXSF

Read more

PyTorch 2.6+Stable Diffusion联动教程:云端GPU双开省80%

PyTorch 2.6+Stable Diffusion联动教程:云端GPU双开省80% 你是不是也遇到过这种情况:作为一名数字艺术生,手头有创意、有想法,但一打开本地电脑跑Stable Diffusion生成一张图就得等半小时,显存还经常爆掉?更别提想同时用PyTorch训练个小模型了——8G显存根本不够分。我试过很多方法,最终发现在云端用GPU资源双开PyTorch和Stable Diffusion,不仅流畅运行,还能省下至少80%的成本。 这篇文章就是为你量身打造的实战指南。我会带你一步步在ZEEKLOG星图平台部署预装PyTorch 2.6和Stable Diffusion的镜像环境,实现两个AI工具并行运行,彻底告别卡顿与等待。整个过程不需要你懂复杂的命令行操作,所有步骤我都整理成了可复制粘贴的代码块,小白也能轻松上手。 学完这篇教程后,你能做到: - 在云端一键部署支持PyTorch 2.6 + Stable Diffusion的完整环境 - 同时运行图像生成和模型训练任务,互不干扰 - 掌握关键参数设置,提升出图质量和训练效率 - 理解为什么云端方案比本地更省钱、更

2026届毕业生存命指南:6大权威查AIGC检测入口+降AI率神器实测“红黑榜”

2026届毕业生存命指南:6大权威查AIGC检测入口+降AI率神器实测“红黑榜”

2026年的毕业季比往年都要“硬核”。 随着《学位法》正式施行,“人工智能写作”已被明确列为学术不端。 现在的毕业流程,不仅要看查重率,还要强行附带AIGC检测报告。如果AI率过高,轻则退回重改,重则影响学位。 为了帮大家少走弯路,我整理了目前国内高校认可度最高的6大检测入口,以及查出高标后的降AI神器实测榜单,帮助大家快速降低论文ai率。建议点赞收藏! 一、 权威自测:6大主流AIGC检测平台入口 不同学校、不同学科适配的工具不同,请根据你的进度“对号入座”: 1、维普 AIGC 检测(中文自查首选) * 特点: 擅长理工科逻辑分析,能识别公式推导和实验描述中的“AI感”。 * 入口: https://www.gxcqvip.com/gx-weipu/ 适用: 本科、硕士论文初稿及中稿自查。 2、万方 AIGC 检测(专业术语识别强) * 特点: 独有“

Whisper.cpp 语音识别终极指南:5分钟快速部署跨平台ASR方案

Whisper.cpp 语音识别终极指南:5分钟快速部署跨平台ASR方案 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 想要在本地快速实现高质量语音识别?Whisper.cpp 作为 OpenAI Whisper 模型的 C++ 移植版本,为你提供了轻量级ASR解决方案。无需复杂配置,只需简单几步,就能将强大的语音识别能力集成到你的应用中!🚀 🎯 为什么选择 Whisper.cpp? 真正开箱即用的语音识别体验:告别繁琐的云端API调用,在本地即可享受与OpenAI Whisper相同的识别精度。无论是会议记录、语音助手还是音频内容分析,Whisper.cpp 都能提供稳定可靠的识别服务。 核心优势亮点: * ✅ 零外部依赖 -

颠覆级里程碑:Whisper Large-V3-Turbo重构语音交互技术范式

颠覆级里程碑:Whisper Large-V3-Turbo重构语音交互技术范式 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 技术背景:实时交互时代的语音识别困境 在智能座舱、远程医疗、元宇宙社交等新兴场景推动下,语音交互正从"可用"向"自然"跨越。行业数据显示,当语音识别延迟超过180ms时,用户对话流畅度将下降47%,而多语言混合场景的识别错误率普遍高达23%。传统语音模型面临三重矛盾:高性能模型推理成本过高(单句识别需GPU支持)、轻量化方案精度损失显著(WER提升11-15%)、多语言支持与识别速度难以兼得。OpenAI此次推出的Whisper Large-V3-Turbo,通过解码层重构+注意力机制优化的组合策略,正在改写语音识别技术的效率边界。 核心特性:解码革命与性能跃迁 架构突破:从32层到4层的极限压缩 Whisper Large-V3-Turbo实现了87.5%