1. 飞书侧配置
1.1 登录开放平台
访问 https://open.feishu.cn/app 登录飞书开发者后台。
1.2 权限配置
在应用设置中配置必要的 API 权限,确保包含消息发送、群组管理及文档读取等基础权限。关键 Scope 示例如下:
{
"scopes": {
"tenant": [
"base:app:create",
"im:message",
"im:chat",
"docs:doc"
]
}
}
完成权限配置后,保存并记录 App ID 与 App Secret。
2. WSL 侧配置
2.1 OpenClaw 初始化
在 WSL 环境中运行 onboard 命令进行初始化配置,启用飞书插件。
openclaw onboard
根据提示选择 QuickStart 模式,确认网关端口(默认 18789)及绑定地址。系统会检测并注册 Feishu 相关工具(feishu_doc, feishu_wiki, feishu_drive 等)。
2.2 启动 Ollama 模型服务
配置环境变量并启动本地 Ollama 服务,以支持大语言模型推理。
OLLAMA_HOST=0.0.0.0:12346 \
OLLAMA_MODELS=/home/gpu3090/.ollama/models \
ollama serve
启动成功后,日志将显示模型加载状态及 GPU 显存分配情况(如 NVIDIA GeForce RTX 4090 D)。确保服务监听在指定端口。
2.3 完成配对
使用 pairing 命令将飞书账号与 Agent 进行安全配对。
openclaw pairing approve feishu <配对码>
配对成功后,Feishu 通道状态将显示为 connected,即可通过飞书与本地 AI 助手交互。
3. 注意事项
- OpenClaw 处于 Beta 阶段,涉及文件读写与工具执行,请遵循最小权限原则。
- 建议将密钥存储在安全位置,避免暴露在公网。
- 定期运行
openclaw security audit检查安全配置。


