企微群机器人发markdown消息支持表格

企微群机器人发markdown消息支持表格

结论

1.V1接口可以圈人,但是无法正确展示表格的markdown语法

2.V2接口可以展示表格的markdown语法,但是无法圈人

3.企微消息有长度限制

前言

今天是日本投降日,写篇技术文档。

企业微信机器人发markdown表格信息+如何艾特人

企微机器人发消息通知,目标是生成数据对比表格,然后艾特到具体的人来跟进事物的变化

1、成果收益

发表格数据,圈人

2、背景

目前机器人通知的内容太单调了,无法满足告警提醒的作用,需要罗列表格进行对比,需要艾特到具体人

3、解决方案

如何支持markdown表格类型

1.企业微信从4.1.38开始支持markdown表格的语法了。可以参看官方文档4.1.38版本新功能介绍

所以企业客户端要升级

2.我们历史使用的是msgtype:markdown,这个还是不支持的

{ "msgtype": "markdown", "markdown": { "content": "实时用户反馈<font color=\"warning\">132例</font>,请相关同事注意。\n>类型:<font color=\"comment\">用户反馈</font>\n>普通用户反馈:<font color=\"comment\">117例</font>\n>VIP用户反馈:<font color=\"comment\">15例</font>" } }

3.需要使用markdown_v2的接口才能支持

{ "msgtype": "markdown_v2", "markdown_v2": { "content": "# 一、标题\n## 二级标题\n### 三级标题\n# 二、字体\n*斜体*\n\n**加粗**\n# 三、列表 \n- 无序列表 1 \n- 无序列表 2\n - 无序列表 2.1\n - 无序列表 2.2\n1. 有序列表 1\n2. 有序列表 2\n# 四、引用\n> 一级引用\n>>二级引用\n>>>三级引用\n# 五、链接\n[这是一个链接](https:work.weixin.qq.com\/api\/doc)\n![](https://res.mail.qq.com/node/ww/wwopenmng/images/independent/doc/test_pic_msg1.png)\n# 六、分割线\n\n---\n# 七、代码\n`这是行内代码`\n```\n这是独立代码块\n```\n\n# 八、表格\n| 姓名 | 文化衫尺寸 | 收货地址 |\n| :----- | :----: | -------: |\n| 张三 | S | 广州 |\n| 李四 | L | 深圳 |\n" } }

具体支持那些可以参看 markdown_v2类型入参说明

如何艾特人

v2的接口明确说了不支持@群成员的语法,这就是鱼和熊掌不可兼得么。

这里需要使用markdown类型

{ "msgtype": "markdown", "markdown": { "content": "实时新增用户反馈<font color=\"warning\">132例</font><@userId>" }

语法就是:

这里可以用userId,enterpiseWeChatId这个ID也可以

<@userID> 

4、参考资料:

https://work.weixin.qq.com/nl/act/p/934e08ec64874715?ver=4.1.38&type=mng&lang=zh&scene=undefined

Read more

DeerFlow基础教程:DeerFlow控制台UI与Web UI双模式使用详解

DeerFlow基础教程:DeerFlow控制台UI与Web UI双模式使用详解 1. DeerFlow是什么:你的个人深度研究助理 你有没有过这样的经历?想快速了解一个新领域,比如“量子计算在金融建模中的最新应用”,但搜了一堆资料,发现信息零散、真假难辨、专业门槛高,最后只能放弃?或者需要为一次重要汇报准备一份结构清晰、数据扎实、有深度分析的行业报告,却卡在资料收集和逻辑梳理上,耗时又费力? DeerFlow就是为解决这类问题而生的。它不是另一个聊天机器人,而是一个能真正帮你“做研究”的AI助手——你的个人深度研究助理。 它不满足于简单回答问题,而是主动调用搜索引擎获取最新信息、运行Python代码验证假设、调用专业工具分析数据、整合多源内容生成结构化报告,甚至能把研究成果变成一段自然流畅的播客音频。整个过程就像你请了一支由研究员、数据分析师、文案编辑和播客制作人组成的虚拟团队,在后台协同工作。 更关键的是,它把这一切复杂能力,封装成了两种你随时可以打开、上手就用的界面:一个简洁高效的命令行控制台(Console UI),适合喜欢直接、快速、可复现操作的用户;还有一个功能

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景分布式协同、涉及设备端侧 API 暴露、轻量化资源服务镜像及严苛的跨端 RPC 通信背景下,如何实现一套既能保持极低内存足迹(Footprint)、又能提供类似后端(Node.js/Koa)般丝滑开发体验且具备全异步处理能力的“端侧 Web 基座”,已成为决定应用分布式自治能力与全栈同构效率的关键。在鸿蒙设备这类强调 AOT 极致效能与背景任务严格限制的环境下,如果应用依然采用重量级的 HTTP 服务端,由于由于进程级的上下文切换开销,极易由于由于“算力溢出”导致鸿蒙应用在作为服务端响应时发生明显的电量损耗。 我们需要一种能够解耦路由逻辑、支持

从零构建高效镜像加速网络:1Panel与Open-WebUI的实战优化指南

从零构建高效镜像加速网络:1Panel与Open-WebUI的实战优化指南 在混合云与容器化部署成为主流的今天,镜像下载速度直接决定了DevOps流程的效率。当团队需要频繁部署基于ghcr.io的AI应用(如Open-WebUI)时,跨国网络延迟可能使镜像拉取时间从几分钟延长至数小时。本文将揭示如何通过1Panel面板与Open-WebUI的深度整合,构建企业级镜像加速网络。 1. 镜像加速的核心架构设计 传统单点加速方案往往只解决表面问题,而真正的企业级加速需要三层架构支撑: 1. 边缘缓存层:利用地理位置最近的镜像站(如南京大学镜像站)作为第一跳 2. 智能路由层:根据实时网络质量自动选择最优链路 3. 本地缓存层:在集群内部建立持久化缓存减少重复下载 以Open-WebUI的3.39GB镜像为例,通过优化前后对比: 方案类型下载耗时带宽利用率失败率直连ghcr.io82分钟35%28%单镜像站加速15分钟68%5%三级加速架构6分钟92%0.1% 实现这一架构需要修改Docker的daemon.json配置: { "registry-mirrors

用 龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!

用 龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!

🚀 用龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香! 一句话总结:选对模型 + 写好提示词,让“龙虾”帮你从零生成可运行的 C 语言成绩管理系统 + 全栈博客前端项目,连实训报告都自动生成! 大家好,我是 VON。最近“AI 编程助手”火出圈,但很多人还在手动敲代码、调 Bug、写报告……其实,只要用对工具,一个指令就能完成整套高校实训作业! 今天我就带大家实测:如何用 AI 智能体(俗称“龙虾”) 快速搞定两类典型课程设计—— ✅ C 语言学生成绩管理系统 ✅ React 全栈个人博客系统 全程无需打开 IDE,甚至不用看一行代码!👇 🔧 第一步:选对模型,效率翻倍! 智能体的输出质量,70%