飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

一、背景

在日常开发中,我们经常需要快速查询代码问题、生成文档或执行简单的编程任务。如果有一款AI助手能随时响应,就像在电脑终端前一样,那该多方便!本教程将演示如何搭建一个飞书机器人,当你在手机飞书App上发送消息时,该消息会传递给运行在电脑上的Claude Code(一个智能编码助手),Claude Code处理后将结果回复到你的飞书会话中。

通过这个方案,你可以:

  • 在手机上随时向AI提问编程问题。
  • 让AI帮你调试代码、解释概念、生成代码片段。
  • 无需打开电脑终端,即可利用强大的AI编码能力。

二、实现方案概览

整体流程如下:

  1. 飞书机器人接收消息:在飞书创建一个自定义机器人,并配置事件订阅,当用户@机器人或私聊发送消息时,飞书会将消息推送到我们的服务。
  2. 消息处理中间件:我们编写一个Python程序,该程序使用飞书开放平台的SDK接收消息,并将消息内容转发给Claude Code。
  3. Claude Code处理:Claude Code是一个命令行AI助手,我们通过SDK调用它,传入用户的问题,获取回答。
  4. 回复消息:Python程序将Claude Code的回答通过飞书API回复给用户。

所有组件都运行在本地电脑上(或任何可联网的服务器),无需云服务。

三、操作步骤

前置准备

  • 一台可运行Docker的电脑(Linux/Mac/Windows均可)。
  • 一个飞书企业或开发者账号(用于创建应用和机器人)。
  • (可选)本地已部署Ollama或其他兼容OpenAI格式的模型服务;若没有,也可使用Claude官方API(需修改配置)。

第一步:创建并进入Claude Code容器

Claude Code是一个基于Claude的AI编码助手,但官方通常需要通过命令行使用。为了简化环境配置,我们使用Docker容器来运行它。容器内已经预装了Claude Code所需的依赖。

为什么用Docker?
Docker可以隔离环境,避免污染本地系统,同时确保所有依赖版本一致。即使你电脑上没有Python或Node.js环境,也能轻松运行。

执行以下命令:

docker run -it--net=host -v$PWD:/home -w /home \--rm swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claude_code /bin/bash 

这条命令做了几件事:

  • -it:以交互模式运行,让你能操作容器内的命令行。
  • --net=host:使用宿主机的网络,方便容器内访问本地服务(如Ollama)。
  • -v $PWD:/home:将当前目录挂载到容器的/home目录,这样容器内可以访问宿主机上的文件(如后续的Python脚本)。
  • -w /home:工作目录设为/home
  • --rm:容器退出后自动删除,避免残留。
  • swr.cn-north-4.myhuaweicloud.com/...:使用的镜像地址,包含了Claude Code及其依赖。

进入容器后,先取消代理设置(如果有):

unset http_proxy unset https_proxy 
配置Claude Code使用本地模型

Claude Code默认使用Anthropic的API,但我们可以通过环境变量让它调用兼容OpenAI格式的本地模型(如Ollama)。假设你在本地8000端口运行了Ollama服务(例如通过ollama serve),并且已有模型如qwen3.5:9b

设置环境变量:

exportANTHROPIC_BASE_URL="http://127.0.0.1:8000"# Ollama兼容OpenAI的地址exportANTHROPIC_AUTH_TOKEN=""# 本地模型不需要认证令牌exportANTHROPIC_API_KEY=""# 同上exportUSE_MODEL="qwen3.5:9b"# 你想使用的模型名称exportANTHROPIC_DEFAULT_SONNET_MODEL=$USE_MODEL# 以下变量全部指向同一模型,简化配置exportANTHROPIC_DEFAULT_OPUS_MODEL=$USE_MODELexportANTHROPIC_DEFAULT_HAIKU_MODEL=$USE_MODELexportANTHROPIC_REASONING_MODEL=$USE_MODELexportANTHROPIC_MODEL=$USE_MODELexportANTHROPIC_SMALL_FAST_MODEL=$USE_MODELexportAPI_TIMEOUT_MS=600000# 超时时间,本地模型可能较慢exportCLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1# 禁止非必要流量,确保隐私

这些环境变量告诉Claude Code SDK:所有请求都发往本地的Ollama,使用指定的模型。

测试Claude Code是否正常工作

运行以下命令,让Claude Code回答一个简单问题:

IS_SANDBOX=1 claude --dangerously-skip-permissions -p"你是谁" --output-format text 

如果配置正确,你应该看到类似如下的输出:

我是 Claude agent,由 Anthropic 构建。我是一个交互式智能助手,专注于帮助完成软件工程和编程任务,例如: - 调试代码 - 添加新功能 - 重构代码 - 解释代码 - 解答编程问题 - 辅助开发工作 你今天需要我帮你做什么呢? 

这说明Claude Code已经就绪,可以接受指令了。

第二步:安装Python依赖

我们的消息中间件是用Python编写的,需要安装两个库:

pip3 install claude_agent_sdk --break-system-packages pip3 install lark_oapi --break-system-packages 
  • claude_agent_sdk:这是Claude Code的Python SDK,它封装了与Claude Code交互的细节,让我们可以在Python代码中轻松调用Claude Code并获取回复。
  • lark_oapi:飞书开放平台官方Python SDK,用于接收飞书事件、发送消息等。

参数--break-system-packages是pip的一个选项,允许在系统Python环境中安装包而不触发警告(如果你的系统是较新的Linux发行版)。你也可以使用虚拟环境(venv)来管理依赖。

第三步:获取飞书应用的凭证

要让飞书机器人接收和发送消息,你需要在飞书开发者后台创建一个应用,并获取APP_IDAPP_SECRET

  1. 登录飞书开发者后台,点击“创建应用”->“企业自建应用”,填写应用名称等信息。
  2. 创建完成后,进入应用详情页,在“凭证与基础信息”中可以看到App IDApp Secret
  3. 还需要配置“事件订阅”:
    • 在“事件订阅”页面,开启“接收消息”事件(im.message.receive_v1)。
    • 因为我们是本地运行,无法提供公网HTTPS地址,所以需要使用WebSocket方式接收事件(下文脚本中已实现)。飞书支持通过WebSocket连接接收事件,无需公网地址。
  4. 在“权限管理”中添加机器人需要的权限:im:message(读取和发送消息)和im:message:send_as_bot(以机器人身份发送消息)。记得版本发布并审核。

得到APP_ID和APP_SECRET后,我们在本地创建一个.env文件来保存它们:

cat> .env <<"EOF" APP_ID=<你的APP_ID> APP_SECRET=<你的APP_SECRET> EOF

第四步:编写并运行中间件脚本

现在,我们编写一个Python脚本,它将完成以下任务:

  • 使用飞书SDK通过WebSocket连接到飞书服务器,监听消息事件。
  • 当收到新消息时,将消息内容放入队列,由工作线程处理。
  • 工作线程调用Claude Code处理消息,并通过飞书API回复用户。

<

Read more

Web3区块链软件开发全栈解决方案:达普韦伯(Dappweb)2026年实战经验分享

2026年,Web3赛道已从“概念炒作”转向“生产力落地”。香港作为全球RWA与虚拟资产枢纽,SFC监管框架全面收紧,稳定币条例、储备审计、链上合规要求越来越高。与此同时,内地团队出海面临的最大挑战仍是:如何用全栈技术栈安全、合规、高效地把项目从0到1推到主网。 我最近深度接触了达普韦伯(Dappweb,官网dappweb.cn),这家香港+西安双基地的Web3技术服务商。他们专注区块链、AI与可信数据融合,已服务超200家国内外客户,涵盖公链定制、数字资产交易所、DApp全栈开发、RWA代币化等。以下基于他们的2026年实战案例,分享一套真正能落地的全栈解决方案思路。 1. 2026年Web3开发的核心痛点:为什么“全栈”成了刚需? * 碎片化工具链:前端React/Vue + 后端Node + Solidity合约 + 多链桥 + 钱包集成 + 监控……拼凑起来容易出bug,维护成本高。 * 安全与合规双杀:合约漏洞年损失数十亿,香港SFC要求储备披露、反洗钱追踪,内地团队一碰“

从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南

从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南

春晚舞台上,机器人群体的整齐划一令人惊叹——但如果想让机器人真正理解并模仿人类的复杂动作,我们需要怎样的视觉技术? 当16台机器人在春晚舞台上旋转跳跃时,它们的每一个动作都经过工程师数月精心编排。然而,真正智能的机器人不应只会重复预设动作,而应能观察人类、理解姿态、即时模仿。这正是姿态估计技术试图解决的难题——让机器人拥有"看懂"人类动作的视觉智能。 本文将带你深入探索基于YOLO26-Pose的零样本姿态估计技术,揭秘如何让机器人在无需特定场景训练数据的情况下,实时理解并复现人类动作。 一、姿态估计技术解析:从看懂到理解 姿态估计作为计算机视觉的核心技术,通过检测图像或视频中人体/物体的关键点并构建骨架模型,实现对姿态和运动的量化分析。在机器人领域,这项技术正在开启全新应用场景: * 模仿学习:机器人通过观察人类操作,学习抓取物体、使用工具 * 人机协作:实时理解工人意图,实现安全高效的人机协同作业 * 远程操控:将操作者动作精确映射到远端机器人,完成危险环境作业 * 技能传授:专家动作数字化,批量复制到多台机器人 然而,传统姿态估计方案面临一个根本性挑战:每个

NoneBot+Lagrange搭建qq机器人保姆级别教程

NoneBot+Lagrange搭建qq机器人保姆级别教程

前言 因为一些原因,go-cqhttp不一定能使用,gocq的作者也是呼吁大家尽快转移到无头NTQQ项目当中去,其中就有很多优秀的平替作品,如:NapNeko/NapCatQQ: 基于NTQQ的无头Bot框架 (github.com)还有今天要介绍的LagrangeDev/Lagrange.Core: An Implementation of NTQQ Protocol, with Pure C#, Derived from Konata.Core (github.com) 准备工作 1. 一台电脑或服务器(服务器搭建bot的教程后面会出) 2. Lagrange程序 3. python3.9及以上版本 4. nonebot插件 1.关于操作系统 可供选择的操作系统: 1. Windows 2. Linux 3. MacOS 2.Lagrange程序下载

学习FPGA(八)快速傅里叶变换

前言         傅里叶变换能通过将信号的时域变换到信号的频域,因为在频域中,系统的响应就等于信号与系统传函的频域上相乘(时域上是卷积),相比于直接在时域里做卷积,先进行傅里叶变换,再在频域上相乘,最后通过逆傅里叶变换反变换回来的步骤看似更长更复杂,但在工程技术上却相对容易实现。         传统的傅里叶变换属于工程数学范畴,主要针对连续时间信号进行时域-频域的变换。而从工程技术的角度来看,人们不可能做到对信号进行连续时间的采样,因此离散傅里叶变换(DFT)也就在这种情况下诞生了。时间久了以后,人们发现DFT的算法时间复杂度太高了,优化DFT的迫在眉睫,快速傅里叶变换(FFT)的出现使原本时间复杂度o(n^2)的DFT直接降到了o(nlogn)。         以上算是FFT的极简版背景故事,具体如何发展如何变换的,数字信号处理相关课程一定有讲,这里就暂时不细讲了,这里还是主要以FPGA中实现快速傅里叶变换为主。         由于我仅在FPGA上实现FFT对信号进行时域-频域的变换,并做到了基波频率的采集,目前尚未如之前的一些历程那样试过其他的方案,因此本文不能给