企微群机器人发markdown消息支持表格

企微群机器人发markdown消息支持表格

结论

1.V1接口可以圈人,但是无法正确展示表格的markdown语法

2.V2接口可以展示表格的markdown语法,但是无法圈人

3.企微消息有长度限制

前言

今天是日本投降日,写篇技术文档。

企业微信机器人发markdown表格信息+如何艾特人

企微机器人发消息通知,目标是生成数据对比表格,然后艾特到具体的人来跟进事物的变化

1、成果收益

发表格数据,圈人

2、背景

目前机器人通知的内容太单调了,无法满足告警提醒的作用,需要罗列表格进行对比,需要艾特到具体人

3、解决方案

如何支持markdown表格类型

1.企业微信从4.1.38开始支持markdown表格的语法了。可以参看官方文档4.1.38版本新功能介绍

所以企业客户端要升级

2.我们历史使用的是msgtype:markdown,这个还是不支持的

{ "msgtype": "markdown", "markdown": { "content": "实时用户反馈<font color=\"warning\">132例</font>,请相关同事注意。\n>类型:<font color=\"comment\">用户反馈</font>\n>普通用户反馈:<font color=\"comment\">117例</font>\n>VIP用户反馈:<font color=\"comment\">15例</font>" } }

3.需要使用markdown_v2的接口才能支持

{ "msgtype": "markdown_v2", "markdown_v2": { "content": "# 一、标题\n## 二级标题\n### 三级标题\n# 二、字体\n*斜体*\n\n**加粗**\n# 三、列表 \n- 无序列表 1 \n- 无序列表 2\n - 无序列表 2.1\n - 无序列表 2.2\n1. 有序列表 1\n2. 有序列表 2\n# 四、引用\n> 一级引用\n>>二级引用\n>>>三级引用\n# 五、链接\n[这是一个链接](https:work.weixin.qq.com\/api\/doc)\n![](https://res.mail.qq.com/node/ww/wwopenmng/images/independent/doc/test_pic_msg1.png)\n# 六、分割线\n\n---\n# 七、代码\n`这是行内代码`\n```\n这是独立代码块\n```\n\n# 八、表格\n| 姓名 | 文化衫尺寸 | 收货地址 |\n| :----- | :----: | -------: |\n| 张三 | S | 广州 |\n| 李四 | L | 深圳 |\n" } }

具体支持那些可以参看 markdown_v2类型入参说明

如何艾特人

v2的接口明确说了不支持@群成员的语法,这就是鱼和熊掌不可兼得么。

这里需要使用markdown类型

{ "msgtype": "markdown", "markdown": { "content": "实时新增用户反馈<font color=\"warning\">132例</font><@userId>" }

语法就是:

这里可以用userId,enterpiseWeChatId这个ID也可以

<@userID> 

4、参考资料:

https://work.weixin.qq.com/nl/act/p/934e08ec64874715?ver=4.1.38&type=mng&lang=zh&scene=undefined

Read more

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

一. 昇腾引领国产AI算力新时代 当生成式人工智能迈入规模化应用的深水区,大模型已从技术探索走向产业落地的关键节点,而算力作为支撑这一进程的核心基础设施,正面临着前所未有的双重挑战:一方面,以Llama、GPT系列为代表的大模型参数规模持续扩大,对算力的峰值性能、内存带宽、能效比提出了指数级增长的需求;另一方面,全球算力供给格局的不确定性,使得核心算力设施的国产化替代成为保障AI产业自主可控发展的战略刚需。 在此背景下,昇腾(神经网络处理器)作为国产高端AI芯片的核心代表,其技术成熟度、生态适配性与性能表现,直接关系到我国在全球AI算力竞争中的核心话语权。 昇腾自诞生以来,便承载着构建国产AI算力底座的战略使命,通过“芯片-框架-模型-应用”全栈式技术布局,打破了海外算力芯片在高端AI领域的垄断局面。从架构设计来看,昇腾采用面向AI计算的专用架构,集成了大量AI计算单元与高效内存管理模块,能够针对性解决大模型训练与推理过程中的数据吞吐瓶颈。 本次测评的核心硬件平台基于昇腾910B 构建,其为大模型的高速推理提供了坚实的硬件基础; 1.什么是昇腾 昇腾 (Ascend)

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

引言 2025 年 6 月 30 日,百度文心大模型 4.5 系列正式开源,并首发于 GitCode 平台!这一重磅消息在 AI 领域掀起了不小的波澜。作为国内最早布局大模型研发的企业之一,百度所推出的文心大模型目前已跻身国内顶级大模型行列,此次开源无疑将对各行各业产生深远影响,进一步加速大模型的发展进程。接下来,就让我们一同探究文心一言 4.5 开源版本地化部署的表现与潜力。 文章目录 * 引言 * 一、文心大模型 ERNIE 4.5 开源介绍 * 1.1 开源版本介绍 * 1.1 ERNIE 4.5 的主要特点和区别 * 二、文心ERNIE 4.5 技术解析 * 2.1

Llama-3.2-3B部署优化:Ollama量化运行与GPU算力适配最佳实践

Llama-3.2-3B部署优化:Ollama量化运行与GPU算力适配最佳实践 1. Llama-3.2-3B模型概述 Llama 3.2是Meta公司推出的新一代多语言大语言模型系列,包含1B和3B两种规模的预训练和指令微调版本。作为纯文本生成模型,Llama-3.2-3B专门针对多语言对话场景进行了深度优化,在代理检索、内容摘要等任务中表现卓越。 该模型采用改进的Transformer架构,通过自回归方式进行文本生成。指令微调版本结合了有监督微调(SFT)和人类反馈强化学习(RLHF)技术,确保模型输出既符合人类偏好,又具备高度的安全性和实用性。在多项行业标准测试中,Llama-3.2-3B的表现超越了众多开源和闭源聊天模型。 2. Ollama环境快速部署 2.1 系统要求与安装 Ollama支持多种操作系统环境,以下是推荐配置: 最低配置要求: * 操作系统:Ubuntu 20.04+ / Windows 10+ / macOS 12+ * 内存:8GB RAM(16GB推荐) * 存储:10GB可用空间 * GPU:

VS Code Copilot 完整使用教程(含图解)

VS Code Copilot 完整使用教程(含图解)

一、GitHub Copilot 概述 GitHub Copilot 是一款集成在 Visual Studio Code 中的 AI 驱动编码助手,它基于公共代码仓库训练而成,能够支持大多数编程语言和框架。通过自然语言提示和现有代码上下文,Copilot 可提供实时代码建议、解释说明和自动化实现,显著提升开发效率。 核心功能亮点 * 智能代码补全:输入时提供单行到整函数级别的实时建议,支持多种编程语言 * 自主编码模式(Agent Mode):根据自然语言指令,自动规划并执行复杂开发任务,跨文件协调修改 * 自然语言交互:通过聊天界面与代码库对话,提问、解释代码或指定修改需求 * 多文件批量修改:单个指令即可应用更改到项目中多个文件,AI 会分析项目结构并进行协调修改 * 模型灵活切换:可根据速度、推理能力或特定任务需求切换不同 AI 模型,支持接入外部模型 二、安装与设置步骤 获取访问权限 不同用户类型需通过以下方式获取 Copilot 访问权限: