企微群机器人发markdown消息支持表格

企微群机器人发markdown消息支持表格

结论

1.V1接口可以圈人,但是无法正确展示表格的markdown语法

2.V2接口可以展示表格的markdown语法,但是无法圈人

3.企微消息有长度限制

前言

今天是日本投降日,写篇技术文档。

企业微信机器人发markdown表格信息+如何艾特人

企微机器人发消息通知,目标是生成数据对比表格,然后艾特到具体的人来跟进事物的变化

1、成果收益

发表格数据,圈人

2、背景

目前机器人通知的内容太单调了,无法满足告警提醒的作用,需要罗列表格进行对比,需要艾特到具体人

3、解决方案

如何支持markdown表格类型

1.企业微信从4.1.38开始支持markdown表格的语法了。可以参看官方文档4.1.38版本新功能介绍

所以企业客户端要升级

2.我们历史使用的是msgtype:markdown,这个还是不支持的

{ "msgtype": "markdown", "markdown": { "content": "实时用户反馈<font color=\"warning\">132例</font>,请相关同事注意。\n>类型:<font color=\"comment\">用户反馈</font>\n>普通用户反馈:<font color=\"comment\">117例</font>\n>VIP用户反馈:<font color=\"comment\">15例</font>" } }

3.需要使用markdown_v2的接口才能支持

{ "msgtype": "markdown_v2", "markdown_v2": { "content": "# 一、标题\n## 二级标题\n### 三级标题\n# 二、字体\n*斜体*\n\n**加粗**\n# 三、列表 \n- 无序列表 1 \n- 无序列表 2\n - 无序列表 2.1\n - 无序列表 2.2\n1. 有序列表 1\n2. 有序列表 2\n# 四、引用\n> 一级引用\n>>二级引用\n>>>三级引用\n# 五、链接\n[这是一个链接](https:work.weixin.qq.com\/api\/doc)\n![](https://res.mail.qq.com/node/ww/wwopenmng/images/independent/doc/test_pic_msg1.png)\n# 六、分割线\n\n---\n# 七、代码\n`这是行内代码`\n```\n这是独立代码块\n```\n\n# 八、表格\n| 姓名 | 文化衫尺寸 | 收货地址 |\n| :----- | :----: | -------: |\n| 张三 | S | 广州 |\n| 李四 | L | 深圳 |\n" } }

具体支持那些可以参看 markdown_v2类型入参说明

如何艾特人

v2的接口明确说了不支持@群成员的语法,这就是鱼和熊掌不可兼得么。

这里需要使用markdown类型

{ "msgtype": "markdown", "markdown": { "content": "实时新增用户反馈<font color=\"warning\">132例</font><@userId>" }

语法就是:

这里可以用userId,enterpiseWeChatId这个ID也可以

<@userID> 

4、参考资料:

https://work.weixin.qq.com/nl/act/p/934e08ec64874715?ver=4.1.38&type=mng&lang=zh&scene=undefined

Read more

2026-01-19-论文阅读-Agentic-Reasoning-for-Large-Language-Models

2026-01-19-论文阅读-Agentic-Reasoning-for-Large-Language-Models

title: 2026-01-19-论文阅读-Agentic-Reasoning-for-Large-Language-Models date: 2026-01-19 tags: * 论文阅读 * Agent * LLM 《Agentic Reasoning for Large Language Models》 一、论文基本信息 * 原文链接,翻译链接 * 作者:Tianxin Wei1† Ting-Wei Li1† Zhining Liu1† … 关键词:Agentic AI,LLM Agent,Agentic Reasoning,Self-evolving。 二、研究背景与问题定义 A. 范式转移:从“静态生成”到“智能体交互” 传统 LLM 推理(LLM Reasoning)主要被视为一种对静态输入的单次(One-shot)或少数次(Few-shot)

ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。 最近AI圈更新太快了,从github copilot到cursor 到claud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw。 1. 前言 1.1 什么是openclaw 2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。 简单说,它就像给你配了一个 24 小时不下班的数字打工人: 把它部署在自己的电脑或服务器上,它就能接入 WhatsApp、Telegram、

具身智能小智AI小车图形化编程Mixly MQTT MCP AIOT控制齐护机器人

具身智能小智AI小车图形化编程Mixly MQTT MCP AIOT控制齐护机器人

项目1-07 智能AI小车 (PBL技术核心_MCP与AI小车控制应用) 一、项目场景介绍 在人工智能迈向“具身化”(Embodied Intelligence)的新时代,智能体不再只是云端的算法,而是能感知、决策并与物理世界互动的实体存在。本课程以齐护Small智能小车为硬件载体,结合齐护AiTall Mini开发平台与小智AI开源大模型对话系统,打造一个集“自然语言理解—意图识别—物理执行”于一体的端到端具身智能交互实验平台。 课程项目将通过图形化软件Mixly编程方式,轻松实现以下高阶功能: 1.语音/文本指令输入:用户通过自然语言与小智AI对话; 2.大模型意图解析:利用小智AI开源大模型理解用户指令语义; 3.多协议融合通信:通过串口、MQTT、MCP协议及本地IoT控制(如AiTall内置RGB灯反馈),构建低延迟、高可靠的人—AI—小车通信链路; 4.智能行为执行:小车根据AI解析结果完成移动、灯光响应、状态反馈等具身动作; 5.可视化编程体验:采用齐护教育版Mixly平台,零代码门槛快速上手,

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

1.OpenClaw对接QQ(qq账号当机器人使用) 在任意文件夹创建项目文件夹napcat及需要的文件夹,并创建docker-compose.yml mkdir -p napcat && cd napcat mkdir -p config .config logs docker-compose.yml内容参考 services: napcat: image: mlikiowa/napcat-docker:latest container_name: napcat restart: unless-stopped environment: - NAPCAT_UID=${NAPCAT_UID:-1000} - NAPCAT_GID=${NAPCAT_GID:-1000} - MESSAGE_POST_FORMAT=string # 网络服务(