小龙虾配置飞书机器人(适合本地部署)

小龙虾配置飞书机器人(适合本地部署)

🚀 OpenClaw 手把手教学:配置飞书机器人

📖 目录

  1. 前置准备
  2. 创建飞书应用
  3. 配置机器人能力
  4. 获取必要凭证
  5. 配置 OpenClaw
  6. 测试机器人

前置准备

在开始之前,请确保你具备以下条件:

✅ 必需条件

  • 飞书管理员权限
    • 需要创建企业自建应用的权限
    • 或联系管理员协助创建

OpenClaw 已安装

# 检查是否已安装 openclaw --version

📋 准备清单

  • OpenClaw 已安装并运行
  • 有飞书企业管理员权限
  • 基本的命令行操作能力

创建飞书应用

步骤 1:进入飞书开放平台

  1. 打开浏览器,访问 飞书开放平台
  2. 使用��书账号登录

点击右上角 “开发者后台”

在这里插入图片描述

步骤 2:创建企业自建应用

  1. 点击 “创建企业自建应用”
  2. 填写应用信息:
    • 应用名称OpenClaw AI 助手(可自定义)
    • 应用描述基于 OpenClaw 的 AI 智能助手(可自定义)
    • 应用图标:上传一个喜欢的图标(建议 120x120)

点击 “创建”

在这里插入图片描述

步骤 3:记录应用信息

在这里插入图片描述

创建成功后,你会看到:

App ID: cli_xxxxxxxxxxxxxxxx App Secret: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 

⚠️ 重要:立即保存这两个值,后面会用到!


配置机器人能力

步骤 4:启用机器人功能

在应用详情里面,添加应用能力,选择机器人。

在这里插入图片描述

步骤 5:配置权限

  1. 点击左侧 “权限管理”
  2. 搜索并添加以下权限:
权限名称权限标识用途
获取与发送单聊、群组消息im:message接收和发送消息
获取用户基本信息contact:user.base:readonly获取用户信息
获取群组信息im:chat:readonly获取群聊信息
发送富文本消息im:message:send_as_bot以机器人身份发送消息

点击 “批量添加”“确认”

在这里插入图片描述

步骤 6:发布版本(重要)

  1. 点击左侧 “版本管理与发布”
  2. 点击 “创建版本”
  3. 填写版本信息:
    • 版本号1.0.0
    • 更新说明首次发布,支持基础对话功能
  4. 点击 “保存”
  5. 点击 “申请发布”
  6. 等待管理员审批(通常几分钟内)

获取必要凭证

步骤 7:获取 App ID 和 App Secret

  1. 在应用详情页,点击左侧 “凭证与基础信息”

你会看到:

App ID: cli_xxx App Secret: xxxxx 

就是前面保存的。这个是开发者应用的凭证。其实也是对应机器人的凭证。

配置 OpenClaw

步骤 8:创建配置文件

编辑 OpenClaw 配置文件:

在这里插入图片描述


或者直接和龙虾对话配置:我正在配置飞书,对应的开发者应用 appid 是 xxx, appSecret 是 xxx ,帮我配置一下

步骤 11:重启 OpenClaw

# 重启服务 openclaw gateway # 检查状态 openclaw status 

预期输出:

✓ OpenClaw 运行中 ✓ Gateway: http://0.0.0.0:18789 ✓ 飞书通道: 已连接 

测试机器人

由于本地部署无法实现双向交流(其实也可以通过ngrok 实现,但是不安全),所以这里是实现单项推送。

首先我们已经配置好了机器人和开发者应用的信息。那么怎么让机器人给我们的飞书发送消息呢。

首先每个飞书在每个开发者应用中,都有一个唯一的openid (同一个飞书用户在不同的应用下openid 不同),所以我们需要获取在对应应用下的openid 。正常我们是看不到的,需要通过接口获取。

#!/bin/bash# =================🔧 配置区域 (请修改这里) =================APP_ID="cli_xxx"APP_SECRET="xxx"PHONE_NUMBER="xxxx"# 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 "+86156...")# =======================================================echo"🚀 开始执行三步查询流程..."echo"--------------------------------------------------"# --- 第一步:获取 tenant_access_token ---echo"1️⃣ 正在获取 Access Token..."TOKEN_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/auth/v3/tenant_access_token/internal"\-H"Content-Type: application/json"\-d"{ \"app_id\": \"$APP_ID\", \"app_secret\": \"$APP_SECRET\" }")# 解析 TokenACCESS_TOKEN=$(echo"$TOKEN_RESP"|grep-o'"tenant_access_token":"[^"]*"'|cut -d'"'-f4)if[-z"$ACCESS_TOKEN"];thenecho"❌ 第一步失败:无法获取 Token。"echo"返回信息: $TOKEN_RESP"exit1fiecho"✅ Token 获取成功: ${ACCESS_TOKEN:0:10}..."echo""# --- 第二步:通过手机号获取 user_id ---echo"2️⃣ 正在通过手机号 ($PHONE_NUMBER) 查询 user_id..."# 注意:根据你的案例,mobiles 数组直接传字符串即可STEP2_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/contact/v3/users/batch_get_id?user_id_type=user_id"\-H"Authorization: Bearer $ACCESS_TOKEN"\-H"Content-Type: application/json"\-d"{ \"emails\": [], \"include_resigned\": false, \"mobiles\": [ \"$PHONE_NUMBER\" ] }")# 解析 user_id (从 data.user_list[0].user_id 中提取)# 使用 python 解析更稳妥,如果没装 python 则用 grep/sed 简易解析ifcommand-v python3 &> /dev/null;thenUSER_ID=$(echo"$STEP2_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user_list',[{}])[0].get('user_id',''))" 2>/dev/null)else# 简易解析 fallbackUSER_ID=$(echo"$STEP2_RESP"|grep-o'"user_id":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$USER_ID"];thenecho"❌ 第二步失败:未找到 user_id。"echo"返回信息: $STEP2_RESP"echo"💡 提示:请检查手机号是否正确,或应用是否有【读取用户手机号】权限。"exit1fiecho"✅ 找到 user_id: $USER_ID"echo""# --- 第三步:通过 user_id 获取 open_id ---echo"3️⃣ 正在通过 user_id ($USER_ID) 查询 open_id..."# 构造 URL: .../users/{user_id}?department_id_type=open_department_id&user_id_type=user_idTARGET_URL="https://open.feishu.cn/open-apis/contact/v3/users/${USER_ID}?department_id_type=open_department_id&user_id_type=user_id"STEP3_RESP=$(curl-s-X GET "$TARGET_URL"\-H"Authorization: Bearer $ACCESS_TOKEN")# 解析 open_idifcommand-v python3 &> /dev/null;thenOPEN_ID=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('open_id',''))" 2>/dev/null)NAME=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('name',''))" 2>/dev/null)elseOPEN_ID=$(echo"$STEP3_RESP"|grep-o'"open_id":"[^"]*"'|head-1|cut -d'"'-f4)NAME=$(echo"$STEP3_RESP"|grep-o'"name":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$OPEN_ID"];thenecho"❌ 第三步失败:未找到 open_id。"echo"返回信息: $STEP3_RESP"echo"💡 提示:请检查应用是否有【读取用户信息】权限。"exit1fiecho"--------------------------------------------------"echo"🎉 查询成功!"echo"👤 姓名:$NAME"echo"🆔 User ID: $USER_ID"echo"🔑 Open ID : $OPEN_ID"echo"--------------------------------------------------"

修改上面的3个配置:
APP_ID=“cli_xxx”
APP_SECRET=“xxx”
PHONE_NUMBER=“xxxx” # 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 “+86156…”)
然后保存为lark.sh。 然后 sh lark.sh(如果是win,就把这段代码给到豆包,让它翻译成win 版本的)

在这里插入图片描述


拿到openid 之后,告诉小龙虾,你的飞书用户openid 是这个。让它记下来。

在这里插入图片描述


然后就可以告诉小龙虾做一些事情了,比如写一篇最新的育儿文章,然后发到你的飞书。

在这里插入图片描述
在这里插入图片描述

Read more

从 0 到 1 玩转 ClaudeCode:Figma-MCP 前端代码 1:1 还原 UI 设计全流程

ClaudeCode 与 Figma-MCP 简介 ClaudeCode 是 Anthropic 推出的 AI 代码生成工具,擅长将设计稿转换为前端代码。Figma-MCP(Minimum Code Principle)指通过最小代码原则实现高保真 UI 还原,适用于 Vue/React 等现代框架。 环境准备 Figma 设计稿检查 * 确保设计稿使用 Auto Layout 布局,标注间距、字体、颜色等设计 Token。 * 导出必要的 SVG/PNG 资源,检查图层命名规范(如 btn_primary)。 开发环境配置 * 安装 Claude 插件或访问官方 Playground。 初始化前端项目(示例为 Vue3 + TypeScript)

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解 1. 引言 随着多模态大模型在视觉理解、语言生成和跨模态推理能力上的飞速发展,阿里云推出的 Qwen3-VL 系列模型已成为当前最具竞争力的视觉-语言模型之一。其最新版本不仅在文本与图像融合理解上达到新高度,更在视频分析、GUI代理操作、长上下文建模等方面实现了突破性进展。 对于开发者和研究者而言,如何高效部署并充分发挥 Qwen3-VL 的性能,成为落地应用的关键挑战。本文聚焦于 Qwen3-VL-WEBUI 的本地化部署实践,重点解析基于单张 NVIDIA RTX 4090D 显卡的最优算力配置方案,涵盖环境准备、资源调度、推理优化等核心环节,帮助用户以最低成本实现高性能多模态推理。 本方案适用于希望在消费级硬件上运行 Qwen3-VL-4B-Instruct 模型的开发者,尤其适合个人研究、原型开发和轻量级产品集成场景。 2. Qwen3-VL-WEBUI 核心特性与架构解析 2.1 模型能力全景 Qwen3-VL 是 Qwen 系列中首个真正意义上的“视觉代理”(Visual Agent),

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

目录 【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键 一、求其外,善其内 1、坚持出发点正确的博文写作 2、博文更新对我心态的淬炼 3、社区交流对我视野的启发 4、向外拓展,反哺内修 二、陷入前端则前端死,跳出前端则前端活 1、从不务正业到泛前端 2、从泛前端到大前端,从有形到无形 三、秋招多少事 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“创作之星”特邀作者、火山KOL、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。 --------------------------------------------------------------------- 温柔地对待温柔的人,包容的三观就是最大的温柔。

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40%

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40% 你是不是也遇到过这种情况:好不容易找到一个性能强大的大模型,比如Qwen3-32B,结果一部署就发现显存不够用,直接报错“Out of Memory”?看着那动辄几十GB的显存需求,再看看自己有限的显卡资源,是不是感觉心都凉了半截? 别急着放弃。今天我就来分享一个实战技巧——通过量化压缩技术,让你在有限的硬件资源上,也能流畅运行Qwen3-32B这样的“大块头”。经过实测,这个方法能让模型显存占用减少40%以上,而性能损失却微乎其微。 1. 为什么Qwen3-32B会“吃”掉那么多显存? 在开始动手之前,我们先得搞清楚问题出在哪。Qwen3-32B是一个拥有320亿参数的庞然大物,它的“大”主要体现在两个方面: 1.1 参数规模带来的直接负担 模型参数越多,需要存储的数据量就越大。Qwen3-32B的320亿参数,如果都用32位浮点数(FP32)来存储,光是参数本身就需要大约128GB的存储空间。这还没算上推理过程中需要的中间计算结果(激活值)和优化器状态。 1.2 推理过程中的内存开销 模型在运行时,