跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
搜索
|注册
博客列表
PythonAI

飞书机器人对接 Claude Code 实现移动端 AI 编程辅助

搭建飞书机器人连接本地 Claude Code 实现移动端 AI 编程辅助。流程包括创建飞书应用获取凭证,使用 Docker 容器运行 Claude Code 并配置环境变量指向本地 Ollama 模型,编写 Python 中间件脚本通过 WebSocket 监听飞书消息事件。收到指令后转发给 AI 处理并将结果回传至飞书会话。该方案无需云服务,支持在手机上随时提问编程问题、调试代码及生成代码片段,利用本地 AI 能力提升开发效率。

技术博主发布于 2026/3/22更新于 2026/5/37 浏览
飞书机器人对接 Claude Code 实现移动端 AI 编程辅助

一、背景

在日常开发中,我们经常需要快速查询代码问题、生成文档或执行简单的编程任务。如果有一款 AI 助手能随时响应,就像在电脑终端前一样,那该多方便!本教程将演示如何搭建一个飞书机器人,当你在手机飞书 App 上发送消息时,该消息会传递给运行在电脑上的 Claude Code(一个智能编码助手),Claude Code 处理后将结果回复到你的飞书会话中。

通过这个方案,你可以:

  • 在手机上随时向 AI 提问编程问题。
  • 让 AI 帮你调试代码、解释概念、生成代码片段。
  • 无需打开电脑终端,即可利用强大的 AI 编码能力。

二、实现方案概览

整体流程如下:

  1. 飞书机器人接收消息:在飞书创建一个自定义机器人,并配置事件订阅,当用户@机器人或私聊发送消息时,飞书会将消息推送到我们的服务。
  2. 消息处理中间件:我们编写一个 Python 程序,该程序使用飞书开放平台的 SDK 接收消息,并将消息内容转发给 Claude Code。
  3. Claude Code 处理:Claude Code 是一个命令行 AI 助手,我们通过 SDK 调用它,传入用户的问题,获取回答。
  4. 回复消息:Python 程序将 Claude Code 的回答通过飞书 API 回复给用户。

所有组件都运行在本地电脑上(或任何可联网的服务器),无需云服务。

三、操作步骤

前置准备

  • 一台可运行 Docker 的电脑(Linux/Mac/Windows 均可)。
  • 一个飞书企业或开发者账号(用于创建应用和机器人)。
  • (可选)本地已部署 Ollama 或其他兼容 OpenAI 格式的模型服务;若没有,也可使用 Claude 官方 API(需修改配置)。

第一步:创建并进入 Claude Code 容器

Claude Code 是一个基于 Claude 的 AI 编码助手,但官方通常需要通过命令行使用。为了简化环境配置,我们使用 Docker 容器来运行它。容器内已经预装了 Claude Code 所需的依赖。

为什么用 Docker? Docker 可以隔离环境,避免污染本地系统,同时确保所有依赖版本一致。即使你电脑上没有 Python 或 Node.js 环境,也能轻松运行。

执行以下命令:

docker run -it --net=host -v$PWD:/home -w /home --rm swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claude_code /bin/bash

这条命令做了几件事:

  • -it:以交互模式运行,让你能操作容器内的命令行。
  • --net=host:使用宿主机的网络,方便容器内访问本地服务(如 Ollama)。
  • -v $PWD:/home:将当前目录挂载到容器的 /home 目录,这样容器内可以访问宿主机上的文件(如后续的 Python 脚本)。
  • -w /home:工作目录设为 /home。
  • --rm:容器退出后自动删除,避免残留。
  • swr.cn-north-4.myhuaweicloud.com/...:使用的镜像地址,包含了 Claude Code 及其依赖。

进入容器后,先取消代理设置(如果有):

unset http_proxy
unset https_proxy
配置 Claude Code 使用本地模型

Claude Code 默认使用 Anthropic 的 API,但我们可以通过环境变量让它调用兼容 OpenAI 格式的本地模型(如 Ollama)。假设你在本地 8000 端口运行了 Ollama 服务(例如通过 ),并且已有模型如 。

ollama serve
qwen3.5:9b

设置环境变量:

export ANTHROPIC_BASE_URL="http://127.0.0.1:8000" # Ollama 兼容 OpenAI 的地址
export ANTHROPIC_AUTH_TOKEN="" # 本地模型不需要认证令牌
export ANTHROPIC_API_KEY="" # 同上
export USE_MODEL="qwen3.5:9b" # 你想使用的模型名称
export ANTHROPIC_DEFAULT_SONNET_MODEL=$USE_MODEL # 以下变量全部指向同一模型,简化配置
export ANTHROPIC_DEFAULT_OPUS_MODEL=$USE_MODEL
export ANTHROPIC_DEFAULT_HAIKU_MODEL=$USE_MODEL
export ANTHROPIC_REASONING_MODEL=$USE_MODEL
export ANTHROPIC_MODEL=$USE_MODEL
export ANTHROPIC_SMALL_FAST_MODEL=$USE_MODEL
export API_TIMEOUT_MS=600000 # 超时时间,本地模型可能较慢
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 # 禁止非必要流量,确保隐私

这些环境变量告诉 Claude Code SDK:所有请求都发往本地的 Ollama,使用指定的模型。

测试 Claude Code 是否正常工作

运行以下命令,让 Claude Code 回答一个简单问题:

IS_SANDBOX=1 claude --dangerously-skip-permissions -p "你是谁" --output-format text

如果配置正确,你应该看到类似如下的输出:

我是 Claude agent,由 Anthropic 构建。我是一个交互式智能助手,专注于帮助完成软件工程和编程任务,例如:
- 调试代码
- 添加新功能
- 重构代码
- 解释代码
- 解答编程问题
- 辅助开发工作
你今天需要我帮你做什么呢?

这说明 Claude Code 已经就绪,可以接受指令了。

第二步:安装 Python 依赖

我们的消息中间件是用 Python 编写的,需要安装两个库:

pip3 install claude_agent_sdk --break-system-packages
pip3 install lark_oapi --break-system-packages
  • claude_agent_sdk:这是 Claude Code 的 Python SDK,它封装了与 Claude Code 交互的细节,让我们可以在 Python 代码中轻松调用 Claude Code 并获取回复。
  • lark_oapi:飞书开放平台官方 Python SDK,用于接收飞书事件、发送消息等。

参数 --break-system-packages 是 pip 的一个选项,允许在系统 Python 环境中安装包而不触发警告(如果你的系统是较新的 Linux 发行版)。你也可以使用虚拟环境(venv)来管理依赖。

第三步:获取飞书应用的凭证

要让飞书机器人接收和发送消息,你需要在飞书开发者后台创建一个应用,并获取 APP_ID 和 APP_SECRET。

  1. 登录 飞书开发者后台,点击'创建应用'->'企业自建应用',填写应用名称等信息。
  2. 创建完成后,进入应用详情页,在'凭证与基础信息'中可以看到 App ID 和 App Secret。
  3. 还需要配置'事件订阅':
    • 在'事件订阅'页面,开启'接收消息'事件(im.message.receive_v1)。
    • 因为我们是本地运行,无法提供公网 HTTPS 地址,所以需要使用 WebSocket 方式接收事件(下文脚本中已实现)。飞书支持通过 WebSocket 连接接收事件,无需公网地址。
  4. 在'权限管理'中添加机器人需要的权限:im:message(读取和发送消息)和 im:message:send_as_bot(以机器人身份发送消息)。记得版本发布并审核。

得到 APP_ID 和 APP_SECRET 后,我们在本地创建一个 .env 文件来保存它们:

cat > .env << EOF
APP_ID=<你的 APP_ID>
APP_SECRET=<你的 APP_SECRET>
EOF

第四步:编写并运行中间件脚本

现在,我们编写一个 Python 脚本,它将完成以下任务:

  • 使用飞书 SDK 通过 WebSocket 连接到飞书服务器,监听消息事件。
  • 当收到新消息时,将消息内容放入队列,由工作线程处理。
  • 工作线程调用 Claude Code 处理消息,并通过飞书 API 回复用户。

目录

  1. 一、背景
  2. 二、实现方案概览
  3. 三、操作步骤
  4. 前置准备
  5. 第一步:创建并进入 Claude Code 容器
  6. 配置 Claude Code 使用本地模型
  7. 测试 Claude Code 是否正常工作
  8. 第二步:安装 Python 依赖
  9. 第三步:获取飞书应用的凭证
  10. 第四步:编写并运行中间件脚本
  • 💰 8折买阿里云服务器限时8折了解详情
  • GPT-5.5 超高智商模型1元抵1刀ChatGPT中转购买
  • 代充Chatgpt Plus/pro 帐号了解详情
  • 🤖 一键搭建Deepseek满血版了解详情
  • 一键打造专属AI 智能体了解详情
极客日志微信公众号二维码

微信扫一扫,关注极客日志

微信公众号「极客日志V2」,在微信中扫描左侧二维码关注。展示文案:极客日志V2 zeeklog

更多推荐文章

查看全部
  • Spring Cloud + Nacos 微服务从 0 到 1 搭建实战
  • 前端数据可视化工具对比与选型指南
  • 提示词工程:大语言模型指令设计与优化
  • AI 变现真相:为何学百种工具仍难盈利
  • Mac Mini M4 本地 AI 模型部署实战:Ollama 与 Stable Diffusion 环境搭建
  • 从三年前端到 CS 硕士:韩国留学经历复盘与职业回归
  • 机器人远程监控架构与 OTA 升级实践
  • MiniMax 海螺 AI:图片与文本生成高质量视频实战
  • 前端大数据导出优化:解决 Chrome 内存崩溃的实战方案
  • 本地部署 GLM-4-9B-Chat-1M:GGUF 转换与 llama.cpp 实战
  • Stable Diffusion 与 Qwen-Image-2512 深度对比:云端实测解析
  • 基于 OpenClaw 与 Claude 构建自动化写作工作流实践
  • AI 编程实践:自动化代码生成、低代码开发与算法优化
  • Cursor 2.0 发布:自研 Composer 模型上线及多 Agent 实测
  • Hugo + Github + Cloudflare Pages 搭建个人博客
  • 前缀和算法详解与应用
  • SpringBoot 集成 MinIO 文件服务器配置与使用
  • MacOS 终端提示 zsh: command not found: brew 的解决方案
  • 天工 AI 辅助产品经理工作流程与多模态功能体验
  • Stable Diffusion WebUI 实战笔记:目录结构与模型推荐

相关免费在线工具

  • RSA密钥对生成器

    生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online

  • Mermaid 预览与可视化编辑

    基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online

  • 随机西班牙地址生成器

    随机生成西班牙地址(支持马德里、加泰罗尼亚、安达卢西亚、瓦伦西亚筛选),支持数量快捷选择、显示全部与下载。 在线工具,随机西班牙地址生成器在线工具,online

  • curl 转代码

    解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online

  • Base64 字符串编码/解码

    将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online

  • Base64 文件转换器

    将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online