MacOS 下使用 Docker 部署 OpenClaw 并对接飞书机器人
OpenClaw 是一款开源的 AI 助手框架,支持跨平台部署和灵活对接各类大模型 API。结合飞书开放平台,可以将 AI 能力直接嵌入到日常办公协作中,无需复杂的底层开发即可实现对话、任务处理等功能。本文梳理了基于 Docker 在 MacOS 环境下的完整部署流程。
环境准备与镜像拉取
首先确保本地已安装 Docker Desktop。打开终端,拉取 OpenClaw 的官方镜像:
docker pull openeuler/openclaw:2026.3.2-oe2403sp3
拉取完成后,启动容器并进行初始化引导。这里使用 --install-daemon 参数来安装守护进程,方便后续管理:
docker run -it --name openclaw openeuler/openclaw:2026.3.2-oe2403sp3 onboard --install-daemon
进入容器后,会进入交互式配置向导。按照提示选择 QuickStart,然后配置你的大模型 API。如果你使用的是第三方服务,选择 Custom Provider,填入 API Base URL、API Key 以及 Model ID。验证通过后,系统会生成一个 Endpoint ID。
飞书应用配置
要让 OpenClaw 在飞书中工作,需要在飞书开放平台创建一个自建应用。
- 创建应用:登录飞书开放平台,创建一个新的企业自建应用。
- 添加机器人:在应用开发页面添加'机器人'能力。
- 权限设置:批量导入所需的权限范围,包括消息发送、文件读取、文档编辑等。权限 JSON 示例如下:
{
"scopes": {
"tenant": [
"aily:file:read",
"im:message",
"docs:doc"
],
"user": [
"aily:file:read",
"im:chat.access_event.bot_p2p_chat:read"
]
}
}
- 事件与回调:这是最关键的一步。需要搭建一个长链接服务来接收飞书的事件推送。可以使用 Python 脚本配合
lark-oapi库来实现。
import lark_oapi lark
() -> :
()
event_handler = lark.EventDispatcherHandler.builder(, ) \
.register_p2_im_message_receive_v1(do_p2_im_message_receive_v1) \
.build()
():
cli = lark.ws.Client(, , event_handler=event_handler, log_level=lark.LogLevel.DEBUG)
cli.start()
__name__ == :
main()


