AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

文章目录

AIOps实践:Dify接入飞书实现与智能体对话

前言

前端时间把dify的智能体接入到了Prometheus和夜莺上,实现了与智能体的基本对话,并可以调取Prometheus数据进行分析,在那之后就开始深度研究AIOps实现原理于深度赋能运维的可能性,所以正在研究AIOps的核心:MCP Server;现在还并未成型,在研究的过程中,就想到了可否基于dify的agent,连接自建的mcp服务器,对接到飞书的机器人上,这样就可以和智能体进行对话,配合成型的mcp,就可以基本实现AIOps。

这里需要借助一个三方的开源工具LangBot,LangBot是一个生产级多平台 LLM 机器人开发平台。那么就开始实践吧:

在这里插入图片描述

MCP Server开发的当前阶段:

在这里插入图片描述

后续会开源至github。

环境搭建

1、Docker环境搭建

安装Docker和docker compose

# 安装必要的工具包sudoapt-get update sudoapt-getinstall ca-certificates curl gnupg lsb-release # 创建密钥环目录并添加Docker的官方GPG密钥(用于验证软件包)sudoinstall -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg |sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudochmod a+r /etc/apt/keyrings/docker.gpg # 将Docker仓库添加到APT源echo"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"|sudotee /etc/apt/sources.list.d/docker.list > /dev/null sudoapt-get update # 安装Dockersudoapt-getinstall docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin # 配置国内镜像源,当然也可以不配置,可以配一个Docker代理,让Docker坐上VPN,在此不再展示vim /etc/docker/daemon.json {"registry-mirrors":["https://docker.1ms.run", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.m.daocloud.io", "https://do.nark.eu.org", "https://dockerpull.com", "https://dockerproxy.cn", "https://docker.awsl9527.cn"], "exec-opts":["native.cgroupdriver=systemd"]} systemctl daemon-reload systemctl start docker# 验证配置docker info 

2、LangBot搭建

# 拉取代码 (该代码在gitcode,如果拉取不下来请在web端登陆下载zip)git clone https://gitcode.com/RockChinQ/LangBot 

启动服务

unzip LangBot-master.zip cd LangBot-master/docker # 启动容器docker compose up -d 

访问 http://ip:5300,首次登录需要初始化。

在这里插入图片描述

注册,登陆即可。

3、编辑流水线

在这里插入图片描述
在这里插入图片描述

点击AI能力,填写相关配置,在dify上查询智能体的URL与密钥,获取参数:

在这里插入图片描述

填写参数:

在这里插入图片描述

保存完成。

4、配置飞书机器人

由于本人使用的是个人账户,所以才可以这样胡作非为哈哈哈哈哈,有企业认证的大佬们就要谨慎了,这个需要管理员审核的。

打开飞书开放平台(https://open.feishu.cn/),点击企业自建应用,点击添加机器人能力:

在这里插入图片描述

配置相关权限:

左侧点击权限管理,右侧点击开通权限,搜索im:message,全部选择:

在这里插入图片描述

再次搜索:cardkit:card:write,开启该权限:

在这里插入图片描述

配置事件回调:

在这里插入图片描述

点击下放的添加事件,配置相关事件:

在这里插入图片描述

当一切都配置完成后发布机器人:

在这里插入图片描述

保存发布即可。

此时,去复制关键信息,LangBot接入飞书的关键凭证:

在这里插入图片描述

复制这两项信息。

到此,飞书配置完成。

5、创建机器人

在这里插入图片描述

配置相关信息:

在这里插入图片描述
在这里插入图片描述

保存即可。

6、进行测试

点击飞书的工作台,选择我们自己创建的机器人:

在这里插入图片描述

进行对话:

在这里插入图片描述

当dify接入了mcp后:

在这里插入图片描述

哈哈哈哈哈,后续会开源这个mcp-server服务器的,敬请期待啦。

附:遇到的问题

如若遇到相关问题,可以查看日志,在LangBot项目的Docker目录下存在log文件夹,查看日志解决问题:

在这里插入图片描述

解决:

访问:

https://open.feishu.cn/app/cli_a9d5778e15389cef/auth?q=cardkit:card:write&op_from=openapi&token_type=tenant 

开通该权限即可。

Read more

【前端】Vue3+elementui+ts,TypeScript Promise<string>转string错误解析,习惯性请出DeepSeek来解答

【前端】Vue3+elementui+ts,TypeScript Promise<string>转string错误解析,习惯性请出DeepSeek来解答

🌹欢迎来到《小5讲堂》🌹 🌹这是《前端》系列文章,每篇文章将以博主理解的角度展开讲解。🌹 🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹 目录 * 前言 * 报错信息 * DeepSeek解答 * 问题原因 * 解决方案 * 最佳实践 * 异步和同步 * 1. 同步(Synchronous)操作 * 示例:同步数据更新 * 2. 异步(Asynchronous)操作 * 示例 1:`setTimeout` * 示例 2:`async/await` * 3. Vue 3 的异步更新机制 * 如何等待 DOM 更新? * 4. 生命周期钩子中的异步 * 5. 总结 * 最佳实践 * 文章推荐 前言 好久没有写前端,

前端大文件分片上传实现与断点续传方案(含完整代码讲解)

在上传大文件(如视频、安装包、模型文件)时,直接上传容易出现以下问题: * 文件过大 → 浏览器/服务器容易超时 * 上传过程中断 → 重新上传浪费时间 * 网络波动 → 上传失败率高 因此,大文件分片上传 + 断点续传 + 秒传校验 是目前最通用、最稳定的解决方案。 本文将通过一段完整可运行的示例代码,详细讲解如何在前端实现分片上传、断点续传、服务端校验等关键功能。 ✨ 实现效果 * ✔ 自动切片(默认 5MB/片,可配置) * ✔ 查询已上传分片(断点续传) * ✔ 自动跳过已上传的片段 * ✔ 每片上传成功后重新校验 * ✔ 所有片段上传完成后自动触发合并 * ✔ 错误处理完善 📌 核心代码(uploadLargeFile) 以下代码就是本文的核心逻辑,也是你提供的代码版本,经过梳理解释后会更易理解: export async function uploadLargeFile({ file, fileId, id, chunkSize = 5 * 1024

重磅官宣!Token 官方中文名定了——「词元」,AI 术语终于有了统一标准

今天(3月24日)科技圈迎来一个里程碑式的消息:国家数据局在国新办新闻发布会上正式官宣,AI 领域核心术语 Token 的中文标准译名,确定为「词元」✅ 从此,困扰业内多年的 Token 译名乱象,终于有了官方定论。 作为每天和大模型、AI 交互的从业者/爱好者,相信大家都有过这样的困扰:同样是 Token,在区块链里叫「代币」,在网络安全领域叫「令牌」,在大模型场景里,有人叫「标记」,有人干脆不翻译直接用英文,甚至还有「模元」「智元」等多种民间译法,跨场景沟通时经常出现理解偏差。 而这次官方定调「词元」,绝非简单的翻译统一,背后藏着对 AI 核心逻辑的精准解读,也预示着我国 AI 产业的规范化再进一步。 一、官方定名核心要点,必看! * 发布主体:国家数据局局长刘烈宏在国新办发布会、中国发展高层论坛上正式使用「

【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线

【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线

系列篇章💥 No.文章1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合11【AI大模型前沿】Qwen2.5-Omni: