把 AI 小助手接入企业微信:用一个回调接口做群聊机器人实战篇

你也许已经有了一个「看起来还挺像样」的 AI 小助手服务,比如:

  • 有 HTTP 接口 /v1/chat
  • 能识别不同 Skill(待办、日报、FAQ 等);
  • 甚至已经有网页版前端。

但现实是:同事们每天真正打开的是企业微信,很少会专门去打开一个新网页跟机器人聊天。

这篇文章就做一件很实用的小事:

在不动你现有 AI 服务核心逻辑的前提下,
用一个企业微信“回调接口”
把它变成「群聊里的 @ 机器人」。

一、整体思路:后端不重写,只加一层「翻译器」

假设你现在的 AI 服务长这样:

  • 接口:POST /v1/chat

返回:

{ "answer": "上午开会,下午写代码……", "skill": "daily_plan", "duration_ms": 1234 }

请求体:

{ "question": "今天帮我规划下工作", "session_id": "xxx", "user_id": "u_123", "user_level": "normal" }

我们要做的只是:

  1. 在企业微信后台配置一个消息回调 URL(比如 /wechat/callback);
  2. 在后端写一个超薄适配层
    • 收到企业微信推来的加密 XML;
    • 解密 → 提取出「用户 ID + 文本内容」;
    • 把「文本内容」转成 question,连同 user_id 一起转发给 /v1/chat
    • 拿到 answer,再按照企业微信要求的格式加密返回。

可以简单理解为:

企业微信:提供 UI 和消息推送
你的 AI 小助手:负责“想答案”
中间这个回调接口:负责「翻译 + 转发 + 回填」

二、企业微信端:你必须准备的 3 个关键参数

在写代码前,先在企业微信后台把几个关键信息准备好。

2.1 创建自建应用 / 机器人

  1. 管理员登录企业微信后台;
  2. 进入【应用管理】 →【自建】→【创建应用】;
  3. 按提示填写名称、图标即可。

创建完成后,记下:

  • CorpID(企业 ID)
  • AgentID(应用 ID)
  • Secret(应用密钥)
其中 CorpID 稍后会和 Token、EncodingAESKey 一起用于解密;
Secret 一般用于你「主动调用企业微信接口」,本篇只做回调,不用到。

2.2 配置消息回调

在刚刚创建的自建应用里,找到:

  • 「接收消息」或「回调配置」模块

配置三项:

  1. URL:你后端可公网访问的地址,比如
    https://your-domain.com/wechat/callback
  2. Token:自己随便写一个,比如 my_wechat_token_2024
  3. EncodingAESKey:企业微信自动生成的一串 43 位字符串

这三项记下来,对应到代码里的环境变量:

环境变量名对应企业微信配置
WECHAT_TOKENToken
WECHAT_ENCODING_AES_KEYEncodingAESKey
WECHAT_CORP_ID企业 CorpID

三、项目结构:只新增一个 wechat_adapter.py

假设你当前项目结构:

project/ ├── app/ │ ├── server.py # 已有:包含 /v1/chat │ ├── ... ├── docker-compose.yml └── Dockerfile

现在只需要:

  • app/ 下加一个 wechat_adapter.py,做企业微信适配;
  • server.py 里把这个 router 挂起来。

四、后端实现:FastAPI + wechatpy

这里用 FastAPI 举例(Flask 思路完全一样),并使用 wechatpy 来处理消息加解密,避免自己手写 AES。

4.1 安装依赖

pip install fastapi uvicorn wechatpy httpx

(如果你已经有 FastAPI,只需加 wechatpyhttpx 即可。)

4.2 编写 wechat_adapter.py

# app/wechat_adapter.py import os from fastapi import APIRouter, Request from fastapi.responses import PlainTextResponse from wechatpy.enterprise.crypto import WeChatCrypto from wechatpy.enterprise import parse_message, create_reply import httpx # 从环境变量读取配置 WECHAT_TOKEN = os.getenv("WECHAT_TOKEN") WECHAT_ENCODING_AES_KEY = os.getenv("WECHAT_ENCODING_AES_KEY") WECHAT_CORP_ID = os.getenv("WECHAT_CORP_ID") # 你自己的 AI 服务接口 AGENT_BACKEND_URL = os.getenv("AGENT_BACKEND_URL", "http://localhost:8000/v1/chat") router = APIRouter() @router.get("/callback") async def wechat_verify( msg_signature: str, timestamp: str, nonce: str, echostr: str ): """ 企业微信在配置回调 URL 时,会发一个 GET 请求校验。 要做的就是:用 WeChatCrypto 解密 echostr,然后原样返回。 """ crypto = WeChatCrypto(WECHAT_TOKEN, WECHAT_ENCODING_AES_KEY, WECHAT_CORP_ID) try: echostr_decoded = crypto.decrypt_message(echostr, msg_signature, timestamp, nonce) return PlainTextResponse(content=echostr_decoded) except Exception: # 验签失败就返回空,企业微信会认为不通过 return PlainTextResponse(content="") @router.post("/callback") async def wechat_callback(request: Request): """ 真正收消息的入口。 1. 解密 XML 2. 解析文本内容 3. 调用内部 AI 服务 4. 构造并加密回复 """ query = request.query_params msg_signature = query.get("msg_signature") timestamp = query.get("timestamp") nonce = query.get("nonce") raw_xml = await request.body() crypto = WeChatCrypto(WECHAT_TOKEN, WECHAT_ENCODING_AES_KEY, WECHAT_CORP_ID) try: msg_xml = crypto.decrypt_message( raw_xml, msg_signature, timestamp, nonce ) except Exception: return PlainTextResponse(content="") # 解析企业微信 XML msg = parse_message(msg_xml) # 只处理文本消息 if msg.type != "text": reply = create_reply("暂时只支持文本消息哦~", msg) encrypted = crypto.encrypt_message(reply.render(), nonce, timestamp) return PlainTextResponse(content=encrypted) # 用户ID(企业微信里的 userid) user_id = msg.source content = msg.content.strip() # [可选] 去掉前面的 @机器人 文本,只保留真正问题 # 例如:"@AI小助手 帮我写日报" → "帮我写日报" if content.startswith("@"): idx = content.find(" ") if idx != -1: content = content[idx + 1 :].strip() # 调用你自己的 AI 接口 async with httpx.AsyncClient(timeout=30) as client: try: resp = await client.post( AGENT_BACKEND_URL, json={ "question": content, "session_id": f"wx_{user_id}", "user_id": f"wx_{user_id}", "user_level": "normal", } ) data = resp.json() answer = data.get("answer", "后端没有返回 answer 字段,请检查。") except Exception as e: answer = f"后端服务异常:{e}" # 构造回复 XML 并加密 reply = create_reply(answer, msg) encrypted = crypto.encrypt_message(reply.render(), nonce, timestamp) return PlainTextResponse(content=encrypted)

4.3 在 server.py 中挂载 router

# app/server.py from fastapi import FastAPI from app.wechat_adapter import router as wechat_router app = FastAPI(title="My AI Agent Service") # 原有 /v1/chat 等接口 # @app.post("/v1/chat") # async def chat(...): # ... # 新增企业微信路由 app.include_router(wechat_router, prefix="/wechat")

本地启动(开发阶段):

uvicorn app.server:app --host 0.0.0.0 --port 8000 --reload

现在,你有了如下几个接口:

  • POST /v1/chat:原来的 AI 接口
  • GET /wechat/callback:用于企业微信验证 URL
  • POST /wechat/callback:用于接收真实消息并回复

五、让企业微信找到你的服务:Nginx / 域名配置

企业微信需要访问你服务器的公网地址,所以一般会放在 Nginx 之后。

假设你有一个域名 https://bot.example.com,Nginx 配置大致如下(核心是 /wechat/ 这段):

server { listen 80; server_name bot.example.com; location / { proxy_pass http://app:8000/; } # 专门给企业微信回调用 location /wechat/ { proxy_pass http://app:8000/wechat/; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } }

重载 Nginx:

nginx -s reload

然后在企业微信后台把回调 URL 填写为:

https://bot.example.com/wechat/callback

保存时,企业微信会向这个 URL 发一个 GET 请求进行签名验证。只要你代码和配置写对,后台就会提示「验证通过」。


六、Docker Compose 中增加环境变量(如在容器里跑)

如果你是用 docker-compose 启动 FastAPI 应用,在 docker-compose.yml 里为 app 服务增加环境变量:

services: app: build: . environment: - OPENAI_API_KEY=sk-xxxx - WECHAT_TOKEN=my_wechat_token_2024 - WECHAT_ENCODING_AES_KEY=你的43位AESKey - WECHAT_CORP_ID=你的企业CorpID - AGENT_BACKEND_URL=http://app:8000/v1/chat ports: - "8000:8000"

重新构建并启动:

docker-compose up -d --build

七、在企业微信群里真实体验一把

  1. 确保:
    • 你的 app 服务已启动;
    • Nginx 反向代理配置正确;
    • 企业微信后台的回调验证已经通过。
  2. 在企业微信中:
    • 找到你刚刚创建的自建应用 / 机器人;
    • 将它添加到某个测试群
  3. 对同事来说,这就是一个普通的群聊机器人
    • 不需要任何技术知识;
    • 会记住对话上下文(取决于你 /v1/chat 的实现);
    • 会调用你现有的多技能 / RAG / 缓存逻辑。

在群里直接 @ 它,例如:

张三:@AI小助手 帮我写一份今天的工作计划: 上午要开会,下午写代码,晚上看两篇技术文章。 AI小助手: 好的,这是你今天的简要工作计划: 1. 上午:准备和参加会议,记录行动项…… 2. 下午:根据会议结论编写代码…… 3. 晚上:选择两篇和当前项目相关的技术文章……

八、简单故障排查 Checklist

1. 企业微信后台提示「URL 验证失败」

重点检查:

  • WECHAT_TOKENEncodingAESKeyCorpID 是否和后台一致;
  • URL 是否和你代码里的路由匹配(是否带 /wechat/callback 前缀);
  • Nginx 是否正确转发到你的 app:8000/wechat/

可以在回调接口里先打印日志,确认 GET 请求有没有到后端。

2. 群里 @ 机器人没反应

可能原因:

  1. /wechat/callback 配置的是内网地址,企业微信访问不到;
  2. 你的 AI 服务 /v1/chat 报错,导致 answer 为空或超时;
  3. 机器人没有被拉进当前群。

排查方法:

  • 先在后端打印收到的 msg.content,确保消息已经到达你服务;
  • 再单独用 curl 或 Postman 测试 /v1/chat 是否工作正常。

3. 机器人一直回复「只支持文本」

说明你发送的是图片、文件等非文本类型,而代码里只接受 msg.type == "text"。可以根据实际需要扩展对其他类型的支持。


九、进阶扩展思路(可选)

当基础版本跑通后,你可以逐步加一些“工程化”功能:

  1. 按用户配额控制用量
    • user_id = msg.source 传给 /v1/chat
    • 在 AI 服务侧按人统计 Token 消耗,设置每日上限。
  2. 按部门开放不同 Skill
    • 若能从企业微信接口拿到部门信息,可在内部配置文件中,为不同部门开放不同功能。
  3. 对接钉钉 / 飞书
    • 保持 /v1/chat 不变;
    • 新增 dingtalk_adapter.pyfeishu_adapter.py,用同样的“回调 → 转发”模式接入。

十、总结

  • 不动核心,只加一层适配
    企业微信只是换了一个入口,你的 AI 逻辑仍只暴露 /v1/chat
  • 成本低,上手快
    一份 wechat_adapter.py + 一点 Nginx / Docker 配置,就能把你的 AI 小助手真正「塞进」日常企业工作流。
  • 具备可扩展空间
    后续可以按配额、权限、统计、管理后台等方向继续进化,而这一层群聊回调接口几乎无须改变。

Read more

如何利用简单的浏览器插件Web Scraper爬取知乎评论数据

如何利用简单的浏览器插件Web Scraper爬取知乎评论数据

一、简单介绍: Web Scraper 的优点就是对新手友好,在最初抓取数据时,把底层的编程知识和网页知识都屏蔽了,可以非常快的入门,只需要鼠标点选几下,几分钟就可以搭建一个自定义的爬虫。 我在过去的半年里,写了很多篇关于 Web Scraper 的教程,本文类似于一篇导航文章,把爬虫的注意要点和我的教程连接起来。最快一个小时,最多一个下午,就可以掌握 Web Scraper 的使用,轻松应对日常生活中的数据爬取需求。 像这样的网页数据,想要通过网页爬虫的方式获取数据,可以下载web scraper进行爬虫 这是常见的网页类型: 1.单页 单页是最常见的网页类型。 我们日常阅读的文章,推文的详情页都可以归于这种类型。作为网页里最简单最常见的类型,Web Scraper 教程里就拿豆瓣电影作为案例,入门 Web Scraper 的基础使用。 2.分页列表 分页列表也是非常常见的网页类型。 互联网的资源可以说是无限的,当我们访问一个网站时,不可能一次性把所有的资源都加载到浏览器里。现在的主流做法是先加载一部分数据,随着用户的交互操作(

Qwen3Guard-Gen-WEB功能全测评,真实场景下表现如何

Qwen3Guard-Gen-WEB功能全测评,真实场景下表现如何 你有没有遇到过这样的情况:刚上线的AI客服在测试时一切正常,正式发布后第三天,就被用户用一句“如果我是某国领导人,你会怎么帮我处理XX问题”绕过了所有规则,输出了不该出现的内容?或者,跨境电商App里一段西班牙语商品描述被误判为“政治敏感”,导致整批上架失败,运营团队连夜人工复核? 这不是模型能力不足,而是传统安全审核机制与真实交互场景之间存在一道看不见的鸿沟——它不在于算力不够,而在于理解方式不对。 Qwen3Guard-Gen-WEB 镜像,正是阿里开源的那把试图填平这道鸿沟的钥匙。它不是又一个黑盒分类API,而是一个开箱即用、带完整Web界面的安全审核专家。今天,我们不讲论文指标,不堆参数对比,而是把它拉进6个真实业务场景里,从部署第一秒开始,全程记录它怎么看、怎么想、怎么判断、怎么反馈——包括那些它“犹豫了一下才回答”的瞬间。 1. 一键部署体验:5分钟完成从镜像到可用服务 1.1 真实部署过程还原(无美化) 我们使用ZEEKLOG星图镜像广场提供的 Qwen3Guard-Gen-WEB 镜像,在

前端文件上传方案:别再只用input type=file了

前端文件上传方案:别再只用input type=file了

前端文件上传方案:别再只用input type=file了 毒舌时刻 这代码写得跟网红滤镜似的——仅供参考。 各位前端同行,咱们今天聊聊前端文件上传。别告诉我你还在用原生的input上传大文件,那感觉就像在用小水管灌满游泳池——慢得让人绝望。 为什么你需要文件上传方案 最近看到一个项目,上传100MB的文件直接卡死浏览器,没有任何进度提示,我差点当场去世。我就想问:你是在做上传还是在做浏览器杀手? 反面教材 <!-- 反面教材:原生文件上传 --> <input type="file" onchange="uploadFile(this.files[0])" /> <script> function uploadFile(file) { const formData = new FormData(

前端打工人必看:Promise.then()链式调用3天吃透(含踩坑血泪史)

前端打工人必看:Promise.then()链式调用3天吃透(含踩坑血泪史)

@[toc]( 前端打工人必看:Promise.then()链式调用3天吃透(含踩坑血泪史)) 前端打工人必看:Promise.then()链式调用3天吃透(含踩坑血泪史) 说实话,Promise这玩意儿我到现在有时候还会写错。不是不懂原理,就是那种"脑子会了手不会"的感觉,你懂的。今天咱们不整那些虚的,就把我这些年踩过的坑、流过的泪、砸过的键盘,统统掏出来给你看。 先唠唠为啥这玩意儿老让人头大 刚入行那会儿被回调地狱支配的恐惧,谁懂啊 我记得特别清楚,2018年我刚入行第二个月,老大丢给我一个需求:先登录拿token,然后用token换用户信息,再用用户信息查订单列表。听起来很简单对吧?我当时是这么写的: // 警告:以下代码包含令人不适的内容,请谨慎观看login(username, password,function(token){getUserInfo(token,function(userInfo){getOrderList(userInfo.userId,