企业微信外部群“群机器人”主动推送消息实现指南

 ​                      QiWe开放平台 · 开发者名片

                API驱动企微自动化,让开发更高效





        核心能力:企微二次开发服务 | 多语言接入 | 免Root授权

        官方站点:https://www.qiweapi.com(功能全景)

        开发文档:https://doc.qiweapi.com(开发指南)

        团队定位:专注企微API生态的技术服务团队        对接通道:搜「QiWe 开放平台」联系客服

        核心理念:合规赋能,让企微开发更简单、更高效

在企业微信的生态开发中,针对外部群(包含微信用户的群聊)进行自动化消息推送,最稳健且合规的方式是利用群机器人(Webhook)。本文将从技术逻辑、核心步骤及注意事项三个维度,分享如何实现这一功能。

一、 实现逻辑简述

企业微信外部群机器人主要通过一个唯一的 Webhook 地址 接收标准的 HTTP POST 请求。开发者只需将构造好的 JSON 格式数据发送至该地址,即可实现消息的主动触达。

  • 适用场景:业务进度通知、系统告警、日报自动汇总等。
  • 权限要求:群主或管理员需开启“群机器人”功能。

二、 核心开发流程

1. 获取 Webhook 地址

在外部群聊设置中,点击“添加群机器人”,设置名称后即可获得类似如下的 URL:

https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx

2. 构造消息体

企业微信支持多种消息格式(Text、Markdown、Image、File)。以最常用的 Markdown 为例,其格式如下:

{ "msgtype": "markdown", "markdown": { "content": "实时业务通知\n>项目名称:<font color=\"info\">自动化接口测试</font>\n>当前状态:<font color=\"warning\">待处理</font>\n>请相关负责人及时跟进。" } } 
3. 发送 POST 请求

使用 Python 的 requests 库或 Node.js 的 axios 即可轻松实现推送:

import requests import json def send_wechat_msg(webhook_url, content): headers = {"Content-Type": "application/json"} data = { "msgtype": "markdown", "markdown": {"content": content} } response = requests.post(webhook_url, data=json.dumps(data), headers=headers) return response.json() 

三、 关键细节与避坑指南

  1. 频率限制:每个机器人每分钟最多发送 20条 消息。如果业务量大,建议引入消息队列进行削峰平谷,避免接口因触发限流而返回错误码。
  2. 消息安全性:Webhook 地址一旦泄露,任何人都可以向群内推送消息。建议将地址保存在服务器环境变量中,不要硬编码在客户端或前端代码中。
  3. 外部群特殊性:外部群机器人目前不支持通过 API “主动拉人入群”或“踢人”,其功能聚焦于单向信息传递。
  4. IP 白名单:虽然企业微信 Webhook 目前没有强制要求 IP 白名单,但在企业内部网关层面,建议对调用此接口的源服务器进行审计和记录。

四、 结语

企业微信二次开发的核心在于提升内外部连接的效率。通过 Webhook 实现的自动推送,不仅降低了人工同步成本,也提升了信息的响应速度。

Read more

低成本运行 Claude Code:通过 LiteLLM 接入 GitHub Copilot Chat API 的完整指南

低成本运行 Claude Code:通过 LiteLLM 接入 GitHub Copilot Chat API 的完整指南

阅读原文 一、背景与动机 Claude Code 是 Anthropic 推出的编程 Agent 工具,很多人会用它做 “vibe coding”:一边写代码一边提问,在对话中重构、重组、查 bug,体验非常接近“和聪明同事结对编程”。 但在实际使用中,它有两个比较现实的问题: 1. 成本高:频繁的对话请求,会很快消耗你的 Anthropic API 配额; 2. 网络不稳:在一些网络环境下,直接请求 Anthropic API 可能经常超时或失败。 与此同时,很多开发者已经在使用 GitHub Copilot。GitHub 在 Copilot 背后接入了包括 Claude 在内的多种大模型(具体组合会随时间调整),而你已经为这部分算力付过费了。 于是,一个很自然的问题出现了:

【模型手术室】第四篇:全流程实战 —— 使用 LLaMA-Factory 开启你的第一个微调任务

专栏进度:04 / 10 (微调实战专题) 很多初学者卡在环境配置和复杂的 torch.train 逻辑上。LLaMA-Factory 的核心优势在于它集成了几乎所有主流国产模型(DeepSeek, Qwen, Yi)和海外模型(Llama 3, Mistral),并且原生支持 Gradio 可视化面板,让你在网页上点点鼠标就能“炼丹”。 一、 环境搭建:打造你的“炼丹炉” 为了保证训练不因版本冲突而崩溃,建议使用 Conda 进行物理隔离。 Bash 1. 克隆项目 git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory 2. 安装核心依赖 (针对 CUDA 12.

Claude部署(copilot反向代理)

一、教育邮箱认证 1、进行教育邮箱认证可免费使用claude pro 2年,有机会的话可以进行认证,无法教育认证的话只能花钱充claude的会员了,如何进行教育认证可观看该Up的视频 超简单一次通过Github学生认证,逐步详细视频教程_哔哩哔哩_bilibili 2、教育认证通过后在GitHub个人主页下的Copilot/Features中开启Copilot Pro 二、服务器上配置Copilot反向代理 1、配置nodejs环境 在官网https://nodejs.org/en/download/package-manager,下载nodejs安装包(Linux) 下载完成后将压缩包传到服务器上进行解压,目录如下 创建软连接,使得在任意目录下都可以试用直接使用node命令和npm命令 ln -s /root/node-v24.13.1-linux-x64/bin/node /usr/local/bin/node ln -s /root/node-v24.13.

【机器人】复现 RoboBrain2.0 具身大脑模型 | 统一感知、推理和规划能力

【机器人】复现 RoboBrain2.0 具身大脑模型 | 统一感知、推理和规划能力

RoboBrain 2.0是一个机器人的具身大脑模型,具备统一感知、推理和规划能力; 同时适应对物理环境中复杂的具身任务; 它提供不同版本:轻量级的3B、7B模型和全尺寸的 32B 模型,包含视觉编码器和语言模型。 代码地址:https://github.com/FlagOpen/RoboBrain2.0 论文地址:RoboBrain 2.0 Technical Report 目录 快速了解模型 1、创建Conda环境 2、安装依赖库 3、安装torch 4、模型推理 示例1:图文问答,使用RoboBrain2.0-7B模型,不开思考模式 示例2:图文问答,使用RoboBrain2.0-7B模型,开启思考模式 示例3:图文问答,使用RoboBrain2.0-3B模型 示例4: