AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

文章目录

AIOps实践:Dify接入飞书实现与智能体对话

前言

前端时间把dify的智能体接入到了Prometheus和夜莺上,实现了与智能体的基本对话,并可以调取Prometheus数据进行分析,在那之后就开始深度研究AIOps实现原理于深度赋能运维的可能性,所以正在研究AIOps的核心:MCP Server;现在还并未成型,在研究的过程中,就想到了可否基于dify的agent,连接自建的mcp服务器,对接到飞书的机器人上,这样就可以和智能体进行对话,配合成型的mcp,就可以基本实现AIOps。

这里需要借助一个三方的开源工具LangBot,LangBot是一个生产级多平台 LLM 机器人开发平台。那么就开始实践吧:

在这里插入图片描述

MCP Server开发的当前阶段:

在这里插入图片描述

后续会开源至github。

环境搭建

1、Docker环境搭建

安装Docker和docker compose

# 安装必要的工具包sudoapt-get update sudoapt-getinstall ca-certificates curl gnupg lsb-release # 创建密钥环目录并添加Docker的官方GPG密钥(用于验证软件包)sudoinstall -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg |sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudochmod a+r /etc/apt/keyrings/docker.gpg # 将Docker仓库添加到APT源echo"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"|sudotee /etc/apt/sources.list.d/docker.list > /dev/null sudoapt-get update # 安装Dockersudoapt-getinstall docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin # 配置国内镜像源,当然也可以不配置,可以配一个Docker代理,让Docker坐上VPN,在此不再展示vim /etc/docker/daemon.json {"registry-mirrors":["https://docker.1ms.run", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.m.daocloud.io", "https://do.nark.eu.org", "https://dockerpull.com", "https://dockerproxy.cn", "https://docker.awsl9527.cn"], "exec-opts":["native.cgroupdriver=systemd"]} systemctl daemon-reload systemctl start docker# 验证配置docker info 

2、LangBot搭建

# 拉取代码 (该代码在gitcode,如果拉取不下来请在web端登陆下载zip)git clone https://gitcode.com/RockChinQ/LangBot 

启动服务

unzip LangBot-master.zip cd LangBot-master/docker # 启动容器docker compose up -d 

访问 http://ip:5300,首次登录需要初始化。

在这里插入图片描述

注册,登陆即可。

3、编辑流水线

在这里插入图片描述
在这里插入图片描述

点击AI能力,填写相关配置,在dify上查询智能体的URL与密钥,获取参数:

在这里插入图片描述

填写参数:

在这里插入图片描述

保存完成。

4、配置飞书机器人

由于本人使用的是个人账户,所以才可以这样胡作非为哈哈哈哈哈,有企业认证的大佬们就要谨慎了,这个需要管理员审核的。

打开飞书开放平台(https://open.feishu.cn/),点击企业自建应用,点击添加机器人能力:

在这里插入图片描述

配置相关权限:

左侧点击权限管理,右侧点击开通权限,搜索im:message,全部选择:

在这里插入图片描述

再次搜索:cardkit:card:write,开启该权限:

在这里插入图片描述

配置事件回调:

在这里插入图片描述

点击下放的添加事件,配置相关事件:

在这里插入图片描述

当一切都配置完成后发布机器人:

在这里插入图片描述

保存发布即可。

此时,去复制关键信息,LangBot接入飞书的关键凭证:

在这里插入图片描述

复制这两项信息。

到此,飞书配置完成。

5、创建机器人

在这里插入图片描述

配置相关信息:

在这里插入图片描述
在这里插入图片描述

保存即可。

6、进行测试

点击飞书的工作台,选择我们自己创建的机器人:

在这里插入图片描述

进行对话:

在这里插入图片描述

当dify接入了mcp后:

在这里插入图片描述

哈哈哈哈哈,后续会开源这个mcp-server服务器的,敬请期待啦。

附:遇到的问题

如若遇到相关问题,可以查看日志,在LangBot项目的Docker目录下存在log文件夹,查看日志解决问题:

在这里插入图片描述

解决:

访问:

https://open.feishu.cn/app/cli_a9d5778e15389cef/auth?q=cardkit:card:write&op_from=openapi&token_type=tenant 

开通该权限即可。

Read more

Mac Mini M4 跑 AI 模型全攻略:从 Ollama 到 Stable Diffusion 的保姆级配置指南

Mac Mini M4 本地AI模型实战:从零构建你的个人智能工作站 最近身边不少朋友都在讨论,能不能用一台小巧的Mac Mini M4,搭建一个属于自己的AI开发环境。毕竟,不是每个人都有预算去租用云端的高性能GPU,也不是所有项目都适合把数据传到云端处理。我折腾了大概两周,从Ollama到Stable Diffusion,把整个流程走了一遍,发现M4芯片的潜力远超预期。这篇文章,就是把我踩过的坑、验证过的有效配置,以及一些提升效率的小技巧,毫无保留地分享给你。无论你是想本地运行大语言模型进行对话和创作,还是想离线生成高质量的AI图像,这篇指南都能帮你把Mac Mini M4变成一个得力的AI伙伴。 1. 环境准备与基础配置 在开始安装任何AI工具之前,确保你的系统环境是干净且高效的,这能避免后续无数莫名其妙的依赖冲突。Mac Mini M4出厂预装的是较新的macOS版本,但这还不够。 首先,打开“系统设置” -> “通用” -> “软件更新”,确保你的macOS已经更新到可用的最新版本。苹果对Metal图形API和神经网络引擎的优化通常会随着系统更新而提升,这对于后续运

By Ne0inhk
文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

目录 * 引言:轻量化部署的时代突围 * 一.技术栈全景图:精准匹配的黄金组合 * 基础层:硬核环境支撑 * 框架层:深度优化套件 * 工具层:部署利器 * 二.详细步骤:精准匹配CUDA 12.6的黄金组合 * 准备环节 * 1.模型选择 * 2.配置实例 * 3.选择镜像 * 4.进入JupyterLab * 5.进入终端 * 6.连接到ssh * 系统基础依赖安装 * 1.更新源并安装核心依赖 * 2.安装 Python 3.12 和配套 pip * 解决 pip 报错 * 深度学习框架部署:PaddlePaddle-GPU深度调优 * FastDeploy-GPU企业级部署框架 * 1.安装FastDeploy核心组件 * 2.修复urllib3

By Ne0inhk
AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

摘要: 本文旨在为人工智能生成内容(AIGC)领域的爱好者和开发者提供一份详尽的Fooocus部署指南。Fooocus作为一款基于Gradio的开源图像生成软件,凭借其简化的操作和高质量的输出,受到了广泛关注。我们将通过两种截然不同的部署路径——传统的本地手动环境配置与现代化的云平台一键部署——来全面探索Fooocus的落地过程。本文将深入剖析手动部署中的每一个步骤、每一条命令及其背后的技术逻辑,详细记录可能遇到的环境冲突与解决方案,并将其与云端部署的流畅体验进行客观对比,为读者在不同场景下选择最合适的部署策略提供坚实的技术参考。 第一章:引言——Fooocus与AIGC部署的挑战 随着Stable Diffusion等底层模型的开源,AIGC技术,特别是文生图领域,迎来了爆发式的增长。各种应用和WebUI层出不穷,极大地降低了普通用户接触和使用前沿AI模型的门槛。在众多工具中,由lllyasviel(ControlNet的作者)开发的Fooocus,以其独特的哲学脱颖而出。Fooocus的设计理念是“化繁为简”,它在保留Stable Diffusion XL(SDXL)强大能力的

By Ne0inhk

一文详解llama.cpp:核心特性、技术原理到实用部署

目录 * 项目定位与核心特性:介绍llama.cpp是什么、核心设计哲学及主要特点。 * 核心架构与技术原理:分析其软件架构、GGML基础库、GGUF文件格式和量化技术。 * 环境部署与实践指南:提供安装部署的多种方式、基本运行方法和API服务配置。 * 进阶特性与扩展功能:介绍路由模式、工具调用、平台移植和企业级部署方案。 🎯 项目定位与核心特性 llama.cpp是一个用纯C/C++编写的开源大语言模型推理框架,最初为在本地运行Meta LLaMA模型而创建。它的核心设计哲学是极简、高效与可移植,旨在让大模型推理摆脱对GPU和复杂Python环境的依赖。 核心设计哲学 1. 极简与可移植性:纯C/C++实现意味着几乎零外部依赖,能在从云服务器到树莓派的各种设备上编译运行。 2. CPU优先优化:虽然后期加入了强大的GPU支持,但其初心是让LLM在普通CPU上高效运行,这使其在众多依赖GPU的框架中独树一帜。 3. 极致性能追求:通过底层硬件指令集优化和量化技术,实现在有限硬件上的惊人性能表现。 主要特点对比 特性维度llama.cpp典型Pyth

By Ne0inhk