本地部署中文OpenClaw 飞书机器人部署指南

本地部署中文OpenClaw 飞书机器人部署指南

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。


安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客

自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南


步骤 1:安装 OpenClaw(openclaw中文社区)
  1. 打开 PowerShell
  2. 执行以下命令一键安装:
# 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex
  • 安装过程会自动下载 Node.js、依赖等,耗时几分钟。
  • 安装完成后会自动进入配置向导,或提示你继续下一步。
步骤 2:运行首次配置向导
  1. 重新打开一个 CMD
  2. 向导启动后:
    • 第一步通常会问是否继续 → 选择 YES
    • 在选择大模型提供商时,选 阿里云百炼(或你想用的其他平台,如 OpenAI、deepseek 等)。
    • 后面会引导你输入 API Key。

输入命令启动配置向导:

openclaw-cn onboard
步骤 3:获取阿里云百炼 API Key
  1. 浏览器访问阿里云百炼控制台
  2. 登录后,进入左侧菜单 密钥管理创建 API Key
  3. 创建完成后,立即复制 Key(通常以 sk- 或 bk- 开头)。
  4. 返回 onboard 向导,在对应位置粘贴这个 Key 并继续。
步骤 4:配置飞书机器人渠道
  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的飞书机器人App IDApp Secret,继续下一步直到向导完成。

步骤 5:启动网关服务

配置完成后,启动 OpenClaw 的网关(负责 WebSocket 长连接):

openclaw-cn gateway
  • 看到类似 “Listening on http://127.0.0.1:18789” 或 “Gateway ready” 即启动成功。
  • 保持这个窗口运行(或用 nohup / pm2 后台运行)。
步骤 6:访问管理后台并验证
  1. 浏览器打开命令中提示的网址(通常是 http://127.0.0.1:18789http://localhost:18789,可能带 token 参数)。
  2. 登录 OpenClaw 管理后台。
  3. 确认飞书渠道已连接:
    • 检查事件订阅是否为 长连接模式
    • 确认已添加的事件列表完整。
步骤 7:测试部署是否成功
  • 将机器人拉入飞书群或私聊。
  • 发送消息(如 @机器人 你好)。
  • 如果机器人正常回复(可能简单问候或调用百炼模型生成回答),则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认百炼 API Key 有效、配额充足。

Read more

uniapp vue h5小程序奶茶点餐纯前端hbuilderx

uniapp vue h5小程序奶茶点餐纯前端hbuilderx

内容目录 * 一、详细介绍 * 二、效果展示 * 1.部分代码 * 2.效果图展示 * 三、学习资料下载 一、详细介绍 uniapp奶茶点餐纯前调试视频.mp4链接: uniapp奶茶点餐纯前调试视频注意事项: 本店所有代码都是我亲测100%跑过没有问题才上架 内含部署环境软件和详细调试教学视频 代码都是全的,请放心购买 虚拟物品具有复制性,不支持七天无理由退换 源码仅供学习参考, 商品内容纯属虚构可以提供定制,二次开发先导入hbuilderx 运行后会启动微信开发工具显示效果 二、效果展示 1.部分代码 代码如下(示例): 2.效果图展示 三、学习资料下载 蓝奏云:https://qumaw.lanzoul.com/iQ2KP3goqhjg

Clawdbot+Qwen3:32B从零开始:3步完成Web Chat平台本地部署(含截图)

Clawdbot+Qwen3:32B从零开始:3步完成Web Chat平台本地部署(含截图) 1. 为什么你需要这个本地Chat平台 你是不是也遇到过这些问题:想用大模型但担心数据上传到公有云?试过几个Web聊天界面,不是配置复杂就是响应慢?或者只是单纯想在自己电脑上跑一个真正属于自己的AI对话系统,不依赖网络、不看别人脸色? Clawdbot + Qwen3:32B 这个组合,就是为解决这些实际问题而生的。它不是又一个需要注册账号、绑定邮箱、等审核的SaaS服务,而是一个完全本地运行、数据不出设备、开箱即用的轻量级Web聊天平台。 这里没有复杂的Docker Compose编排,没有动辄半小时的环境搭建,也没有让人头大的证书配置。整个过程只需要三步:装好基础工具、拉起模型服务、启动前端界面。全程在终端敲几行命令,刷新浏览器就能开始对话。 更关键的是,它用的是通义千问最新发布的Qwen3:32B——目前开源领域综合能力最强的中文大模型之一。32B参数规模意味着更强的逻辑推理、更稳的长文本理解、更自然的多轮对话表现。而Clawdbot作为一款专注本地集成的轻量级代理网关,把模

资源高效+高精度识别|PaddleOCR-VL-WEB文档解析全场景适配

资源高效+高精度识别|PaddleOCR-VL-WEB文档解析全场景适配 写在前面 你有没有遇到过这样的情况:一份扫描版PDF里既有密密麻麻的正文、带公式的推导过程,又有跨页表格和手写批注,用传统OCR工具一识别,文字错位、表格散架、公式变乱码——最后还得人工逐字校对,半天时间白忙活? 这不是个别现象。在金融报告、科研论文、古籍档案、多语言合同等真实业务中,文档解析早已不是“把图片转成文字”这么简单。它需要同时理解布局结构、语义逻辑、视觉关系和多语言混排——而这些,正是PaddleOCR-VL-WEB真正发力的地方。 本文不讲抽象架构,不堆参数指标,只聚焦一件事:这个镜像到底能不能在你的日常工作中稳稳跑起来?识别准不准?部署难不难?支持哪些“难搞”的文档? 我用一台搭载RTX 4090D单卡的服务器,从零部署PaddleOCR-VL-WEB,实测了27份真实文档(含中文财报、英文技术手册、日文说明书、阿拉伯语合同、带手写体的实验记录本、含LaTeX公式的学术PDF),全程记录操作路径、关键配置、效果反馈和避坑要点。所有步骤均可复现,