小龙虾配置飞书机器人(适合本地部署)

小龙虾配置飞书机器人(适合本地部署)

🚀 OpenClaw 手把手教学:配置飞书机器人

📖 目录

  1. 前置准备
  2. 创建飞书应用
  3. 配置机器人能力
  4. 获取必要凭证
  5. 配置 OpenClaw
  6. 测试机器人

前置准备

在开始之前,请确保你具备以下条件:

✅ 必需条件

  • 飞书管理员权限
    • 需要创建企业自建应用的权限
    • 或联系管理员协助创建

OpenClaw 已安装

# 检查是否已安装 openclaw --version

📋 准备清单

  • OpenClaw 已安装并运行
  • 有飞书企业管理员权限
  • 基本的命令行操作能力

创建飞书应用

步骤 1:进入飞书开放平台

  1. 打开浏览器,访问 飞书开放平台
  2. 使用��书账号登录

点击右上角 “开发者后台”

在这里插入图片描述

步骤 2:创建企业自建应用

  1. 点击 “创建企业自建应用”
  2. 填写应用信息:
    • 应用名称OpenClaw AI 助手(可自定义)
    • 应用描述基于 OpenClaw 的 AI 智能助手(可自定义)
    • 应用图标:上传一个喜欢的图标(建议 120x120)

点击 “创建”

在这里插入图片描述

步骤 3:记录应用信息

在这里插入图片描述

创建成功后,你会看到:

App ID: cli_xxxxxxxxxxxxxxxx App Secret: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 

⚠️ 重要:立即保存这两个值,后面会用到!


配置机器人能力

步骤 4:启用机器人功能

在应用详情里面,添加应用能力,选择机器人。

在这里插入图片描述

步骤 5:配置权限

  1. 点击左侧 “权限管理”
  2. 搜索并添加以下权限:
权限名称权限标识用途
获取与发送单聊、群组消息im:message接收和发送消息
获取用户基本信息contact:user.base:readonly获取用户信息
获取群组信息im:chat:readonly获取群聊信息
发送富文本消息im:message:send_as_bot以机器人身份发送消息

点击 “批量添加”“确认”

在这里插入图片描述

步骤 6:发布版本(重要)

  1. 点击左侧 “版本管理与发布”
  2. 点击 “创建版本”
  3. 填写版本信息:
    • 版本号1.0.0
    • 更新说明首次发布,支持基础对话功能
  4. 点击 “保存”
  5. 点击 “申请发布”
  6. 等待管理员审批(通常几分钟内)

获取必要凭证

步骤 7:获取 App ID 和 App Secret

  1. 在应用详情页,点击左侧 “凭证与基础信息”

你会看到:

App ID: cli_xxx App Secret: xxxxx 

就是前面保存的。这个是开发者应用的凭证。其实也是对应机器人的凭证。

配置 OpenClaw

步骤 8:创建配置文件

编辑 OpenClaw 配置文件:

在这里插入图片描述


或者直接和龙虾对话配置:我正在配置飞书,对应的开发者应用 appid 是 xxx, appSecret 是 xxx ,帮我配置一下

步骤 11:重启 OpenClaw

# 重启服务 openclaw gateway # 检查状态 openclaw status 

预期输出:

✓ OpenClaw 运行中 ✓ Gateway: http://0.0.0.0:18789 ✓ 飞书通道: 已连接 

测试机器人

由于本地部署无法实现双向交流(其实也可以通过ngrok 实现,但是不安全),所以这里是实现单项推送。

首先我们已经配置好了机器人和开发者应用的信息。那么怎么让机器人给我们的飞书发送消息呢。

首先每个飞书在每个开发者应用中,都有一个唯一的openid (同一个飞书用户在不同的应用下openid 不同),所以我们需要获取在对应应用下的openid 。正常我们是看不到的,需要通过接口获取。

#!/bin/bash# =================🔧 配置区域 (请修改这里) =================APP_ID="cli_xxx"APP_SECRET="xxx"PHONE_NUMBER="xxxx"# 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 "+86156...")# =======================================================echo"🚀 开始执行三步查询流程..."echo"--------------------------------------------------"# --- 第一步:获取 tenant_access_token ---echo"1️⃣ 正在获取 Access Token..."TOKEN_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/auth/v3/tenant_access_token/internal"\-H"Content-Type: application/json"\-d"{ \"app_id\": \"$APP_ID\", \"app_secret\": \"$APP_SECRET\" }")# 解析 TokenACCESS_TOKEN=$(echo"$TOKEN_RESP"|grep-o'"tenant_access_token":"[^"]*"'|cut -d'"'-f4)if[-z"$ACCESS_TOKEN"];thenecho"❌ 第一步失败:无法获取 Token。"echo"返回信息: $TOKEN_RESP"exit1fiecho"✅ Token 获取成功: ${ACCESS_TOKEN:0:10}..."echo""# --- 第二步:通过手机号获取 user_id ---echo"2️⃣ 正在通过手机号 ($PHONE_NUMBER) 查询 user_id..."# 注意:根据你的案例,mobiles 数组直接传字符串即可STEP2_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/contact/v3/users/batch_get_id?user_id_type=user_id"\-H"Authorization: Bearer $ACCESS_TOKEN"\-H"Content-Type: application/json"\-d"{ \"emails\": [], \"include_resigned\": false, \"mobiles\": [ \"$PHONE_NUMBER\" ] }")# 解析 user_id (从 data.user_list[0].user_id 中提取)# 使用 python 解析更稳妥,如果没装 python 则用 grep/sed 简易解析ifcommand-v python3 &> /dev/null;thenUSER_ID=$(echo"$STEP2_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user_list',[{}])[0].get('user_id',''))" 2>/dev/null)else# 简易解析 fallbackUSER_ID=$(echo"$STEP2_RESP"|grep-o'"user_id":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$USER_ID"];thenecho"❌ 第二步失败:未找到 user_id。"echo"返回信息: $STEP2_RESP"echo"💡 提示:请检查手机号是否正确,或应用是否有【读取用户手机号】权限。"exit1fiecho"✅ 找到 user_id: $USER_ID"echo""# --- 第三步:通过 user_id 获取 open_id ---echo"3️⃣ 正在通过 user_id ($USER_ID) 查询 open_id..."# 构造 URL: .../users/{user_id}?department_id_type=open_department_id&user_id_type=user_idTARGET_URL="https://open.feishu.cn/open-apis/contact/v3/users/${USER_ID}?department_id_type=open_department_id&user_id_type=user_id"STEP3_RESP=$(curl-s-X GET "$TARGET_URL"\-H"Authorization: Bearer $ACCESS_TOKEN")# 解析 open_idifcommand-v python3 &> /dev/null;thenOPEN_ID=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('open_id',''))" 2>/dev/null)NAME=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('name',''))" 2>/dev/null)elseOPEN_ID=$(echo"$STEP3_RESP"|grep-o'"open_id":"[^"]*"'|head-1|cut -d'"'-f4)NAME=$(echo"$STEP3_RESP"|grep-o'"name":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$OPEN_ID"];thenecho"❌ 第三步失败:未找到 open_id。"echo"返回信息: $STEP3_RESP"echo"💡 提示:请检查应用是否有【读取用户信息】权限。"exit1fiecho"--------------------------------------------------"echo"🎉 查询成功!"echo"👤 姓名:$NAME"echo"🆔 User ID: $USER_ID"echo"🔑 Open ID : $OPEN_ID"echo"--------------------------------------------------"

修改上面的3个配置:
APP_ID=“cli_xxx”
APP_SECRET=“xxx”
PHONE_NUMBER=“xxxx” # 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 “+86156…”)
然后保存为lark.sh。 然后 sh lark.sh(如果是win,就把这段代码给到豆包,让它翻译成win 版本的)

在这里插入图片描述


拿到openid 之后,告诉小龙虾,你的飞书用户openid 是这个。让它记下来。

在这里插入图片描述


然后就可以告诉小龙虾做一些事情了,比如写一篇最新的育儿文章,然后发到你的飞书。

在这里插入图片描述
在这里插入图片描述

Read more

(二)Stable Diffusion 3.5硬件准备与环境配置 —— 低配显卡也能跑大模型

(二)Stable Diffusion 3.5硬件准备与环境配置 —— 低配显卡也能跑大模型

随着 Stable Diffusion 3.5 (SD 3.5) 的发布,生成式 AI 的门槛再次降低。虽然其 Large 版本拥有高达 81 亿的参数量,但通过合理的量化选择、显存管理技巧以及操作系统级的优化,即便是在 8GB 或 12GB 显存的消费级显卡上,也能获得极佳的生成体验。 2.1 显存容量与量化选择指南 在本地运行 SD 3.5 时,显存 (VRAM) 是最核心的硬件指标。SD 3.5 Large 模型在原生精度 (FP16/BF16) 下,通常需要约 18–19 GB 的显存才能完整加载。这意味着如果你想体验不经过性能削减的原生模型,

AIGC视频模型核心技术解析:从生成原理到工程实践

快速体验 在开始今天关于 AIGC视频模型核心技术解析:从生成原理到工程实践 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AIGC视频模型核心技术解析:从生成原理到工程实践 最近在尝试用AI生成视频内容时,发现很多现成的模型要么画面闪烁严重,要么分辨率低得感人,更别提那惊人的显存占用了。经过一番折腾,终于摸清了当前AIGC视频模型的技术脉络,今天就把这些实战经验分享给大家。 为什么你的视频生成总是不尽如人意? 1. 时序一致性难题:

基于FPGA的滤波器设计:IIR、FIR与自适应滤波器

基于FPGA的滤波器设计:IIR、FIR与自适应滤波器

基于FPGA的IIR滤波器数字滤波器无限脉冲响应verilog vhdl自适应滤波器实物FIR抽取内插上下变频CIC滤波器 如果需要上述滤波器或者其他滤波器都可以右下角加好友加好友定制。 本设计是基于FPGA的IIR滤波器,VERILOG HDL和VHDL的程序都有,下面图示的滤波器设计指标是8阶的低通滤波器,采样率是1M HZ,截止频率是100K HZ可以根据你们的要求定制不同指标的滤波器; FIR滤波器,自适应滤波器也可以定做 用FPGA实现的IIR滤波器的实测图。 用FPGA实现IIR滤波器的原理图。 Simulink的仿真图,滤波前的时域信号波形放在了第二栏,滤波后的时域波形放在了第一栏。 滤波前后信号的频谱图。 IIR滤波器的零极点图 第一栏是90K Hz正弦波与110K Hz正弦波再叠加一个直流量的时域混合波形,第二栏是时域波形的频谱,从频谱中可以清晰看到三个频率分量。 滤波器最终输出结果的时域与频域波形。 simulink仿真模型。 最近在研究基于FPGA的滤波器设计,发现这玩意儿真的很有意思,今天就来和大家分享分享。咱们这次主要聚焦于IIR滤波器,当然FIR滤波器和自

Whisper.Unity:在Unity中实现本地语音转文字的革命性方案

Whisper.Unity是一个突破性的开源项目,它将OpenAI的Whisper语音识别模型无缝集成到Unity3D环境中。基于whisper.cpp实现,这个项目支持约60种语言的语音转录和跨语言翻译,完全离线运行且免费开源,为开发者提供了前所未有的本地语音转文字解决方案。 【免费下载链接】whisper.unityRunning speech to text model (whisper.cpp) in Unity3d on your local machine. 项目地址: https://gitcode.com/gh_mirrors/wh/whisper.unity 项目核心技术亮点 完全离线的智能语音识别 想象一下,你的应用能够听懂用户说话,却不需要连接互联网!✨ Whisper.Unity最大的魅力在于它实现了完全离线的语音识别功能。这不仅保护了用户隐私,还大大降低了使用成本,让语音交互变得既安全又高效。 多平台无缝兼容能力 从Windows到MacOS,从Linux到移动端的iOS和Android,甚至是最新的VisionOS平台,Whisper.Unit