飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

一、背景

在日常开发中,我们经常需要快速查询代码问题、生成文档或执行简单的编程任务。如果有一款AI助手能随时响应,就像在电脑终端前一样,那该多方便!本教程将演示如何搭建一个飞书机器人,当你在手机飞书App上发送消息时,该消息会传递给运行在电脑上的Claude Code(一个智能编码助手),Claude Code处理后将结果回复到你的飞书会话中。

通过这个方案,你可以:

  • 在手机上随时向AI提问编程问题。
  • 让AI帮你调试代码、解释概念、生成代码片段。
  • 无需打开电脑终端,即可利用强大的AI编码能力。

二、实现方案概览

整体流程如下:

  1. 飞书机器人接收消息:在飞书创建一个自定义机器人,并配置事件订阅,当用户@机器人或私聊发送消息时,飞书会将消息推送到我们的服务。
  2. 消息处理中间件:我们编写一个Python程序,该程序使用飞书开放平台的SDK接收消息,并将消息内容转发给Claude Code。
  3. Claude Code处理:Claude Code是一个命令行AI助手,我们通过SDK调用它,传入用户的问题,获取回答。
  4. 回复消息:Python程序将Claude Code的回答通过飞书API回复给用户。

所有组件都运行在本地电脑上(或任何可联网的服务器),无需云服务。

三、操作步骤

前置准备

  • 一台可运行Docker的电脑(Linux/Mac/Windows均可)。
  • 一个飞书企业或开发者账号(用于创建应用和机器人)。
  • (可选)本地已部署Ollama或其他兼容OpenAI格式的模型服务;若没有,也可使用Claude官方API(需修改配置)。

第一步:创建并进入Claude Code容器

Claude Code是一个基于Claude的AI编码助手,但官方通常需要通过命令行使用。为了简化环境配置,我们使用Docker容器来运行它。容器内已经预装了Claude Code所需的依赖。

为什么用Docker?
Docker可以隔离环境,避免污染本地系统,同时确保所有依赖版本一致。即使你电脑上没有Python或Node.js环境,也能轻松运行。

执行以下命令:

docker run -it--net=host -v$PWD:/home -w /home \--rm swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claude_code /bin/bash 

这条命令做了几件事:

  • -it:以交互模式运行,让你能操作容器内的命令行。
  • --net=host:使用宿主机的网络,方便容器内访问本地服务(如Ollama)。
  • -v $PWD:/home:将当前目录挂载到容器的/home目录,这样容器内可以访问宿主机上的文件(如后续的Python脚本)。
  • -w /home:工作目录设为/home
  • --rm:容器退出后自动删除,避免残留。
  • swr.cn-north-4.myhuaweicloud.com/...:使用的镜像地址,包含了Claude Code及其依赖。

进入容器后,先取消代理设置(如果有):

unset http_proxy unset https_proxy 
配置Claude Code使用本地模型

Claude Code默认使用Anthropic的API,但我们可以通过环境变量让它调用兼容OpenAI格式的本地模型(如Ollama)。假设你在本地8000端口运行了Ollama服务(例如通过ollama serve),并且已有模型如qwen3.5:9b

设置环境变量:

exportANTHROPIC_BASE_URL="http://127.0.0.1:8000"# Ollama兼容OpenAI的地址exportANTHROPIC_AUTH_TOKEN=""# 本地模型不需要认证令牌exportANTHROPIC_API_KEY=""# 同上exportUSE_MODEL="qwen3.5:9b"# 你想使用的模型名称exportANTHROPIC_DEFAULT_SONNET_MODEL=$USE_MODEL# 以下变量全部指向同一模型,简化配置exportANTHROPIC_DEFAULT_OPUS_MODEL=$USE_MODELexportANTHROPIC_DEFAULT_HAIKU_MODEL=$USE_MODELexportANTHROPIC_REASONING_MODEL=$USE_MODELexportANTHROPIC_MODEL=$USE_MODELexportANTHROPIC_SMALL_FAST_MODEL=$USE_MODELexportAPI_TIMEOUT_MS=600000# 超时时间,本地模型可能较慢exportCLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1# 禁止非必要流量,确保隐私

这些环境变量告诉Claude Code SDK:所有请求都发往本地的Ollama,使用指定的模型。

测试Claude Code是否正常工作

运行以下命令,让Claude Code回答一个简单问题:

IS_SANDBOX=1 claude --dangerously-skip-permissions -p"你是谁" --output-format text 

如果配置正确,你应该看到类似如下的输出:

我是 Claude agent,由 Anthropic 构建。我是一个交互式智能助手,专注于帮助完成软件工程和编程任务,例如: - 调试代码 - 添加新功能 - 重构代码 - 解释代码 - 解答编程问题 - 辅助开发工作 你今天需要我帮你做什么呢? 

这说明Claude Code已经就绪,可以接受指令了。

第二步:安装Python依赖

我们的消息中间件是用Python编写的,需要安装两个库:

pip3 install claude_agent_sdk --break-system-packages pip3 install lark_oapi --break-system-packages 
  • claude_agent_sdk:这是Claude Code的Python SDK,它封装了与Claude Code交互的细节,让我们可以在Python代码中轻松调用Claude Code并获取回复。
  • lark_oapi:飞书开放平台官方Python SDK,用于接收飞书事件、发送消息等。

参数--break-system-packages是pip的一个选项,允许在系统Python环境中安装包而不触发警告(如果你的系统是较新的Linux发行版)。你也可以使用虚拟环境(venv)来管理依赖。

第三步:获取飞书应用的凭证

要让飞书机器人接收和发送消息,你需要在飞书开发者后台创建一个应用,并获取APP_IDAPP_SECRET

  1. 登录飞书开发者后台,点击“创建应用”->“企业自建应用”,填写应用名称等信息。
  2. 创建完成后,进入应用详情页,在“凭证与基础信息”中可以看到App IDApp Secret
  3. 还需要配置“事件订阅”:
    • 在“事件订阅”页面,开启“接收消息”事件(im.message.receive_v1)。
    • 因为我们是本地运行,无法提供公网HTTPS地址,所以需要使用WebSocket方式接收事件(下文脚本中已实现)。飞书支持通过WebSocket连接接收事件,无需公网地址。
  4. 在“权限管理”中添加机器人需要的权限:im:message(读取和发送消息)和im:message:send_as_bot(以机器人身份发送消息)。记得版本发布并审核。

得到APP_ID和APP_SECRET后,我们在本地创建一个.env文件来保存它们:

cat> .env <<"EOF" APP_ID=<你的APP_ID> APP_SECRET=<你的APP_SECRET> EOF

第四步:编写并运行中间件脚本

现在,我们编写一个Python脚本,它将完成以下任务:

  • 使用飞书SDK通过WebSocket连接到飞书服务器,监听消息事件。
  • 当收到新消息时,将消息内容放入队列,由工作线程处理。
  • 工作线程调用Claude Code处理消息,并通过飞书API回复用户。

<

Read more

用 Rust 构建 Git 提交历史可视化工具

用 Rust 构建 Git 提交历史可视化工具

在软件开发中,版本控制系统的历史记录往往承载着项目的演进脉络。然而,当项目规模扩大、分支增多时,纯文本的 git log 输出很难直观地展现提交之间的复杂关系。今天,我想分享一个用 Rust 构建的轻量级工具 —— git-graph-rs,它能把 Git 仓库的提交历史转换为可视化的图结构,为代码审查、项目复盘和工程决策提供直观的支持。 目录 * 为什么需要可视化? * 技术方案的选择 * 1. 利用系统 Git 命令 * 2. 模块化的 Rust 架构 * 3. 双格式输出策略 * 核心实现解析 * Git 数据获取的艺术 * 图结构的一致性保证 * 合并提交的可视化区分 * 工程化思维体现 * 错误处理的前置化 * 参数设计的克制 * 输出格式的稳定性 * 实际应用场景 * 1. CI/CD 集成 * 2. 代码审查辅助 * 3. 项目文档化

By Ne0inhk

【无人机路径规划】基于深度强化学习的多无人机辅助边缘计算网络路径规划(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文目录如下:🎁🎁🎁 目录 💥1 概述 摘要 一、研究背景与意义 1.1 边缘计算与无人机的融合需求 1.2 多无人机路径规划的挑战 二、多无人机辅助边缘计算网络架构 2.1 网络组成与功能 2.2 路径规划的协同需求 三、深度强化学习在路径规划中的适配性 3.1 技术优势 3.2 核心算法与多智能体协同 3.2.1 单无人机路径规划:DDPG算法 3.2.2 多无人机协同:MADDPG与IPPO 四、典型应用场景与性能优化 4.

By Ne0inhk

2025前端框架趋势:React领跑,Vue稳健,Angular深耕企业级

文章概要 2025年,前端框架市场呈现React、Vue、Angular三足鼎立格局。React凭借生态优势持续领跑,Vue以渐进式架构赢得开发者青睐,Angular则聚焦企业级应用。本文结合技术特性、学习曲线与行业实践,解析三大框架的演进方向与选型策略。 最近整理前端框架选型数据时,我惊讶地发现:尽管社区争论不断,React、Vue、Angular 这三大框架依然稳坐2025年的头把交椅,像极了技术圈的“三巨头”。它们各自占据不同生态位,形成了一种微妙的平衡。 从NPM下载量来看,React的优势几乎无可撼动——周下载量突破5700万次,几乎是Vue的两倍。这背后是Meta强力支撑下的庞大生态:从Next.js到React Native,从Redux到Zustand,几乎每个细分领域都有成熟方案。尤其在全球市场,金融、社交平台等数据密集型应用几乎清一色选择React,虚拟DOM+服务端组件(RSC) 的组合在复杂交互场景下表现尤为出色。 而Vue虽然全球占比32%,却在中国开发者中实现了近50%的使用率,堪称“本土之王”。阿里、百度、腾讯等大厂的中后台项目大量采用Vue

By Ne0inhk
机器人也能“刚柔并济”:深入浅出力位混合控制算法

机器人也能“刚柔并济”:深入浅出力位混合控制算法

目录 引言 从擦黑板说起:为什么需要力位混合控制? 算法核心原理:机器人的“多线程”思维 关键技术:选择矩阵S 实现案例:机械臂打螺丝过程分析 技术突破:无需力传感器的力位混合控制 不同应用场景中的实施策略 1. 单电机系统 2. 多自由度机械臂 3. 工业应用中的参数整定 未来展望   class 卑微码农: def __init__(self): self.技能 = ['能读懂十年前祖传代码', '擅长用Ctrl+C/V搭建世界', '信奉"能跑就别动"的玄学'] self.发量 = 100 # 初始发量 self.咖啡因耐受度

By Ne0inhk