企微群机器人发markdown消息支持表格

企微群机器人发markdown消息支持表格

结论

1.V1接口可以圈人,但是无法正确展示表格的markdown语法

2.V2接口可以展示表格的markdown语法,但是无法圈人

3.企微消息有长度限制

前言

今天是日本投降日,写篇技术文档。

企业微信机器人发markdown表格信息+如何艾特人

企微机器人发消息通知,目标是生成数据对比表格,然后艾特到具体的人来跟进事物的变化

1、成果收益

发表格数据,圈人

2、背景

目前机器人通知的内容太单调了,无法满足告警提醒的作用,需要罗列表格进行对比,需要艾特到具体人

3、解决方案

如何支持markdown表格类型

1.企业微信从4.1.38开始支持markdown表格的语法了。可以参看官方文档4.1.38版本新功能介绍

所以企业客户端要升级

2.我们历史使用的是msgtype:markdown,这个还是不支持的

{ "msgtype": "markdown", "markdown": { "content": "实时用户反馈<font color=\"warning\">132例</font>,请相关同事注意。\n>类型:<font color=\"comment\">用户反馈</font>\n>普通用户反馈:<font color=\"comment\">117例</font>\n>VIP用户反馈:<font color=\"comment\">15例</font>" } }

3.需要使用markdown_v2的接口才能支持

{ "msgtype": "markdown_v2", "markdown_v2": { "content": "# 一、标题\n## 二级标题\n### 三级标题\n# 二、字体\n*斜体*\n\n**加粗**\n# 三、列表 \n- 无序列表 1 \n- 无序列表 2\n - 无序列表 2.1\n - 无序列表 2.2\n1. 有序列表 1\n2. 有序列表 2\n# 四、引用\n> 一级引用\n>>二级引用\n>>>三级引用\n# 五、链接\n[这是一个链接](https:work.weixin.qq.com\/api\/doc)\n![](https://res.mail.qq.com/node/ww/wwopenmng/images/independent/doc/test_pic_msg1.png)\n# 六、分割线\n\n---\n# 七、代码\n`这是行内代码`\n```\n这是独立代码块\n```\n\n# 八、表格\n| 姓名 | 文化衫尺寸 | 收货地址 |\n| :----- | :----: | -------: |\n| 张三 | S | 广州 |\n| 李四 | L | 深圳 |\n" } }

具体支持那些可以参看 markdown_v2类型入参说明

如何艾特人

v2的接口明确说了不支持@群成员的语法,这就是鱼和熊掌不可兼得么。

这里需要使用markdown类型

{ "msgtype": "markdown", "markdown": { "content": "实时新增用户反馈<font color=\"warning\">132例</font><@userId>" }

语法就是:

这里可以用userId,enterpiseWeChatId这个ID也可以

<@userID> 

4、参考资料:

https://work.weixin.qq.com/nl/act/p/934e08ec64874715?ver=4.1.38&type=mng&lang=zh&scene=undefined

Read more

《AI IDE 巅峰对决:Cursor vs. Kiro 全方位深度体验报告(附 Token 消耗与避坑指南)》

《AI IDE 巅峰对决:Cursor vs. Kiro 全方位深度体验报告(附 Token 消耗与避坑指南)》

一、 开篇:当“快”不再是唯一标准 在过去的一年里,我们习惯了 Cursor 带来的“快”——Tab 一键补全,Chat 随问随答。但在面对复杂的企业级项目时,我们常遇到这样的痛点: * 对话轮数多了,AI 开始“胡言乱语”或忘记之前的设定。 * 代码写得很快,但文档没跟上,维护起来全是“债”。 * 功能写完了,一跑全是 Bug,排查时间比写代码还长。 这时,AWS 推出的 Kiro 给了我们另一种选择。它不急着写代码,而是先写文档。这听起来很反直觉,但在实际工程中,这可能是解决“代码屎山”的良药。 二、 核心体验:两种截然不同的编程哲学 1. Cursor:Chat-First(聊天优先)—— 速度即正义 Cursor

nlp_structbert_sentence-similarity_chinese-large保姆级教程:Streamlit Session State管理多用户会话

nlp_structbert_sentence-similarity_chinese-large保姆级教程:Streamlit Session State管理多用户会话 你是不是也遇到过这样的问题?用Streamlit做了一个很酷的AI应用,比如这个中文句子相似度分析工具,但每次刷新页面,输入框里的文字就没了,计算过的结果也清空了。或者,当你想同时为多个用户提供服务时,发现他们的数据会互相干扰。 今天,我就来手把手教你解决这个问题。我们将以nlp_structbert_sentence-similarity_chinese-large这个强大的中文语义匹配工具为例,深入讲解如何用Streamlit的Session State来优雅地管理多用户会话,让你的应用从“玩具”升级为“工具”。 学完这篇教程,你将掌握: 1. Session State的核心概念和工作原理。 2. 如何为你的AI应用(如句子相似度计算)添加稳固的会话记忆。 3. 实现多用户数据隔离的实战技巧。 4. 避免常见陷阱,打造更专业的Web应用。 准备好了吗?让我们开始吧。 1. 环境准备与项目回顾

医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(八)

医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(八)

第15章 模型融合与集成策略 在机器学习竞赛和实际应用中,模型融合(Model Ensemble)是提升预测性能的利器。通过组合多个不同的基模型,集成策略能够综合各个模型的优势,抵消单个模型的偏差和方差,从而获得比任何单一模型更稳定、更准确的预测结果。在医疗AI领域,模型融合同样具有重要价值——面对复杂多模态的医疗数据,单一模型往往难以全面捕捉所有信息,而融合多个异质模型可以提升诊断的鲁棒性和准确性。本章将从集成学习的基本思想出发,系统介绍常见的模型融合方法,包括投票法、平均法、Stacking、Blending等,并通过实战案例展示如何构建融合模型来提升疾病预测性能。 15.1 集成学习的基本思想 集成学习(Ensemble Learning)的核心思想是“三个臭皮匠,顶个诸葛亮”——通过结合多个学习器来完成学习任务,通常可以获得比单一学习器更优越的泛化性能。根据个体学习器的生成方式,集成学习主要分为两大类: * Bagging:并行训练多个独立的基学习器,然后通过平均或投票进行结合。典型代表是随机森林。Bagging主要降低方差。 * Boosting:串行训练基学习

告别失忆 AI:LangChain RAG + 对话记忆实战,从 0 到 1 落地

告别失忆 AI:LangChain RAG + 对话记忆实战,从 0 到 1 落地 前言 在大模型应用中,RAG(检索增强生成) 已经成为企业级知识库、智能文档问答的标配。它能让大模型读取你的私有文件(txt、docx、pdf),并基于文件内容精准回答问题,不会编造答案。 而对话记忆能让 AI 记住历史对话,实现连贯的多轮问答。 今天,我用 LangChain 搭建一套: * 支持本地私有文档(TXT/DOCX/PDF) * 支持 RAG 知识库检索 * 支持对话历史记忆 * 可直接运行、无环境报错 的完整智能问答系统。 一、核心功能 1. 读取本地文档(TXT、DOCX 等) 2. RAG