小龙虾配置飞书机器人(适合本地部署)

小龙虾配置飞书机器人(适合本地部署)

🚀 OpenClaw 手把手教学:配置飞书机器人

📖 目录

  1. 前置准备
  2. 创建飞书应用
  3. 配置机器人能力
  4. 获取必要凭证
  5. 配置 OpenClaw
  6. 测试机器人

前置准备

在开始之前,请确保你具备以下条件:

✅ 必需条件

  • 飞书管理员权限
    • 需要创建企业自建应用的权限
    • 或联系管理员协助创建

OpenClaw 已安装

# 检查是否已安装 openclaw --version

📋 准备清单

  • OpenClaw 已安装并运行
  • 有飞书企业管理员权限
  • 基本的命令行操作能力

创建飞书应用

步骤 1:进入飞书开放平台

  1. 打开浏览器,访问 飞书开放平台
  2. 使用��书账号登录

点击右上角 “开发者后台”

在这里插入图片描述

步骤 2:创建企业自建应用

  1. 点击 “创建企业自建应用”
  2. 填写应用信息:
    • 应用名称OpenClaw AI 助手(可自定义)
    • 应用描述基于 OpenClaw 的 AI 智能助手(可自定义)
    • 应用图标:上传一个喜欢的图标(建议 120x120)

点击 “创建”

在这里插入图片描述

步骤 3:记录应用信息

在这里插入图片描述

创建成功后,你会看到:

App ID: cli_xxxxxxxxxxxxxxxx App Secret: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 

⚠️ 重要:立即保存这两个值,后面会用到!


配置机器人能力

步骤 4:启用机器人功能

在应用详情里面,添加应用能力,选择机器人。

在这里插入图片描述

步骤 5:配置权限

  1. 点击左侧 “权限管理”
  2. 搜索并添加以下权限:
权限名称权限标识用途
获取与发送单聊、群组消息im:message接收和发送消息
获取用户基本信息contact:user.base:readonly获取用户信息
获取群组信息im:chat:readonly获取群聊信息
发送富文本消息im:message:send_as_bot以机器人身份发送消息

点击 “批量添加”“确认”

在这里插入图片描述

步骤 6:发布版本(重要)

  1. 点击左侧 “版本管理与发布”
  2. 点击 “创建版本”
  3. 填写版本信息:
    • 版本号1.0.0
    • 更新说明首次发布,支持基础对话功能
  4. 点击 “保存”
  5. 点击 “申请发布”
  6. 等待管理员审批(通常几分钟内)

获取必要凭证

步骤 7:获取 App ID 和 App Secret

  1. 在应用详情页,点击左侧 “凭证与基础信息”

你会看到:

App ID: cli_xxx App Secret: xxxxx 

就是前面保存的。这个是开发者应用的凭证。其实也是对应机器人的凭证。

配置 OpenClaw

步骤 8:创建配置文件

编辑 OpenClaw 配置文件:

在这里插入图片描述


或者直接和龙虾对话配置:我正在配置飞书,对应的开发者应用 appid 是 xxx, appSecret 是 xxx ,帮我配置一下

步骤 11:重启 OpenClaw

# 重启服务 openclaw gateway # 检查状态 openclaw status 

预期输出:

✓ OpenClaw 运行中 ✓ Gateway: http://0.0.0.0:18789 ✓ 飞书通道: 已连接 

测试机器人

由于本地部署无法实现双向交流(其实也可以通过ngrok 实现,但是不安全),所以这里是实现单项推送。

首先我们已经配置好了机器人和开发者应用的信息。那么怎么让机器人给我们的飞书发送消息呢。

首先每个飞书在每个开发者应用中,都有一个唯一的openid (同一个飞书用户在不同的应用下openid 不同),所以我们需要获取在对应应用下的openid 。正常我们是看不到的,需要通过接口获取。

#!/bin/bash# =================🔧 配置区域 (请修改这里) =================APP_ID="cli_xxx"APP_SECRET="xxx"PHONE_NUMBER="xxxx"# 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 "+86156...")# =======================================================echo"🚀 开始执行三步查询流程..."echo"--------------------------------------------------"# --- 第一步:获取 tenant_access_token ---echo"1️⃣ 正在获取 Access Token..."TOKEN_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/auth/v3/tenant_access_token/internal"\-H"Content-Type: application/json"\-d"{ \"app_id\": \"$APP_ID\", \"app_secret\": \"$APP_SECRET\" }")# 解析 TokenACCESS_TOKEN=$(echo"$TOKEN_RESP"|grep-o'"tenant_access_token":"[^"]*"'|cut -d'"'-f4)if[-z"$ACCESS_TOKEN"];thenecho"❌ 第一步失败:无法获取 Token。"echo"返回信息: $TOKEN_RESP"exit1fiecho"✅ Token 获取成功: ${ACCESS_TOKEN:0:10}..."echo""# --- 第二步:通过手机号获取 user_id ---echo"2️⃣ 正在通过手机号 ($PHONE_NUMBER) 查询 user_id..."# 注意:根据你的案例,mobiles 数组直接传字符串即可STEP2_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/contact/v3/users/batch_get_id?user_id_type=user_id"\-H"Authorization: Bearer $ACCESS_TOKEN"\-H"Content-Type: application/json"\-d"{ \"emails\": [], \"include_resigned\": false, \"mobiles\": [ \"$PHONE_NUMBER\" ] }")# 解析 user_id (从 data.user_list[0].user_id 中提取)# 使用 python 解析更稳妥,如果没装 python 则用 grep/sed 简易解析ifcommand-v python3 &> /dev/null;thenUSER_ID=$(echo"$STEP2_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user_list',[{}])[0].get('user_id',''))" 2>/dev/null)else# 简易解析 fallbackUSER_ID=$(echo"$STEP2_RESP"|grep-o'"user_id":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$USER_ID"];thenecho"❌ 第二步失败:未找到 user_id。"echo"返回信息: $STEP2_RESP"echo"💡 提示:请检查手机号是否正确,或应用是否有【读取用户手机号】权限。"exit1fiecho"✅ 找到 user_id: $USER_ID"echo""# --- 第三步:通过 user_id 获取 open_id ---echo"3️⃣ 正在通过 user_id ($USER_ID) 查询 open_id..."# 构造 URL: .../users/{user_id}?department_id_type=open_department_id&user_id_type=user_idTARGET_URL="https://open.feishu.cn/open-apis/contact/v3/users/${USER_ID}?department_id_type=open_department_id&user_id_type=user_id"STEP3_RESP=$(curl-s-X GET "$TARGET_URL"\-H"Authorization: Bearer $ACCESS_TOKEN")# 解析 open_idifcommand-v python3 &> /dev/null;thenOPEN_ID=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('open_id',''))" 2>/dev/null)NAME=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('name',''))" 2>/dev/null)elseOPEN_ID=$(echo"$STEP3_RESP"|grep-o'"open_id":"[^"]*"'|head-1|cut -d'"'-f4)NAME=$(echo"$STEP3_RESP"|grep-o'"name":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$OPEN_ID"];thenecho"❌ 第三步失败:未找到 open_id。"echo"返回信息: $STEP3_RESP"echo"💡 提示:请检查应用是否有【读取用户信息】权限。"exit1fiecho"--------------------------------------------------"echo"🎉 查询成功!"echo"👤 姓名:$NAME"echo"🆔 User ID: $USER_ID"echo"🔑 Open ID : $OPEN_ID"echo"--------------------------------------------------"

修改上面的3个配置:
APP_ID=“cli_xxx”
APP_SECRET=“xxx”
PHONE_NUMBER=“xxxx” # 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 “+86156…”)
然后保存为lark.sh。 然后 sh lark.sh(如果是win,就把这段代码给到豆包,让它翻译成win 版本的)

在这里插入图片描述


拿到openid 之后,告诉小龙虾,你的飞书用户openid 是这个。让它记下来。

在这里插入图片描述


然后就可以告诉小龙虾做一些事情了,比如写一篇最新的育儿文章,然后发到你的飞书。

在这里插入图片描述
在这里插入图片描述

Read more

04_Dify 单独启动前端 Docker 容器

04_Dify 单独启动前端 Docker 容器

前言 本文介绍了在前后端分离开发场景下,部署Dify前端服务的两种Docker化方案。一是直接使用官方DockerHub镜像启动前端容器,支持最新版或指定版本,并配置后端API地址;二是通过源码本地构建自定义镜像后再启动。两种方法均通过环境变量配置控制台与应用的API连接,并提供了本地访问验证方式,适合后端开发者专注业务逻辑时快速启用前端界面。 一、直接使用 DockerHub 镜像 当单独开发后端时,可能只需要源码启动后端服务,而不需要本地构建前端代码并启动,因此可以直接通过拉取 docker 镜像并启动容器的方式来启动前端服务。 1.1 启动后端服务 查看教程:👉 Dify开源版使用源代码本地启动(一至五部分) 查看教程:👉 dify-plugin-daemon使用源码启动图文教程 1.2 使用 DockerHub 镜像启动前端 Docker 容器 获取最新版本 docker run -it -p 3000:3000 -e CONSOLE_API_URL=http://127.0.0.

Qwen3-VL-4B Pro一键部署:Docker+GPU驱动自动检测+WebUI直连

Qwen3-VL-4B Pro一键部署:Docker+GPU驱动自动检测+WebUI直连 1. 这不是普通“看图说话”,而是真正能读懂图像逻辑的AI 你有没有试过给AI传一张超市货架照片,让它不仅说出“这是零食区”,还能指出“第三排左数第二个蓝色包装是进口海苔脆,保质期还剩17天”?或者上传一张电路板图片,它能准确识别出烧毁的电容位置并解释可能的故障原因?这些不再是实验室里的演示效果——Qwen3-VL-4B Pro 就是为此而生。 它不是又一个调用API的网页工具,也不是需要你手动编译、改配置、查报错的“工程挑战赛”。这是一个从镜像拉取到浏览器打开、全程不到3分钟就能开始图文对话的完整闭环。没有Python环境冲突,不纠结CUDA版本,不手动下载模型权重,甚至不需要知道“device_map”是什么意思。你只需要有显卡、有Docker、有浏览器——剩下的,它自己搞定。 更关键的是,它真的“懂图”。不是靠OCR扫文字、不是靠分类标签堆关键词,而是把图像当作和文字同等重要的信息源,进行跨模态对齐与联合推理。比如你问:“如果把图中穿红衣服的人换成穿西装的,背景灯光该怎么调整才自然

深入剖析云原生Service Mesh数据平面Envoy核心架构:基于xDS协议与WebAssembly实现动态流量管理与安全策略的微服务治理实战指南

深入剖析云原生Service Mesh数据平面Envoy核心架构:基于xDS协议与WebAssembly实现动态流量管理与安全策略的微服务治理实战指南

深入剖析云原生Service Mesh数据平面Envoy核心架构:基于xDS协议与WebAssembly实现动态流量管理与安全策略的微服务治理实战指南 在云原生微服务架构的演进中,Service Mesh(服务网格)已成为处理服务间通信的标准基础设施。而在这一架构中,Envoy 凭借其高性能的 C++ 实现、可扩展的架构以及作为 Istio 默认数据平面的地位,成为了事实上的“Sidecar之王”。 本文将深入剖析 Envoy 的核心架构,重点解析其如何通过 xDS 协议 实现动态配置,以及如何利用 WebAssembly (Wasm) 技术突破传统的扩展瓶颈,实现微服务的流量管理与安全策略治理。 1. Envoy 核心架构全景:高性能的“四层”模型 Envoy 本质上是一个高性能的边缘/服务代理,其设计核心在于将网络处理逻辑分解为清晰的层级。这种设计不仅保证了极高的吞吐量,也使得配置极其灵活。 1.1 逻辑架构分层 Envoy 的逻辑架构自上而下分为四个核心层次: Level 1: 线程模型与I/

Axum: Rust 好用的 Web 框架

Axum: Rust 好用的 Web 框架

Axum 是 Rust 生态中基于 Tokio 异步运行时和 Tower 中间件体系打造的高性能 Web 框架,以“类型安全、无宏入侵、轻量高效”为核心优势,广泛应用于云原生、微服务、API 网关等场景。它摒弃了传统 Web 框架的宏魔法,完全依赖 Rust 的类型系统实现路由匹配、请求解析、响应处理,兼顾了开发效率与运行性能。 本文将从环境搭建、核心概念、路由设计、请求处理、中间件开发到生产级实战,全方位拆解 Axum 的使用技巧,每个知识点均配套可运行的示例代码,帮助开发者从入门到精通,快速构建高性能的 Rust Web 应用。 一、环境准备与项目初始化 1.1 前置条件 * 安装 Rust 环境: