windows部署的OpenClaw接入飞书机器人

windows部署的OpenClaw接入飞书机器人

文章目录


前言

OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,目前国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw,本文主要是配置飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,当然配置钉钉接入也可以作为参考。

  • windowsWindows 本地(PowerShell)一键部署 OpenClaw
  • 飞书账号(有飞书开放平台权限的账号)

一、创建飞书应用

1.登录飞书开放平台

1.1 网页访问,打开飞书开放平台地址:https://open.feishu.cn

在这里插入图片描述


1.2 登录开发者后台

在这里插入图片描述

2.创建企业自建应用

2.1 创建企业自建应用

在这里插入图片描述


给创建的应用命名,我这里为了方便,直接命名为:OpenClaw

在这里插入图片描述


2.2 添加机器人

在这里插入图片描述


2.3 配置开通权限,
在应用中找到-权限管理-找找到“批量导入导出权限”-权限配置JSON-将以下配置复制替换掉现有的默认配置。

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } 

详细操作如下所示:

在这里插入图片描述


在这里插入图片描述

2.4 配置版本号,并保存

在这里插入图片描述


在这里插入图片描述

3.发布企业自建应用

3.1 申请线上发布

在这里插入图片描述


3.2 管理员审批通过
申请线上发布后,飞书管理员会收到申请,找到申请消息,点击进入管理后台审核,

在这里插入图片描述


找到要审核的OpenClaw应用,点击审核

在这里插入图片描述


跳转到审核页面,选择“通过”即可

在这里插入图片描述


3.3 确认创建应用发布成功
管理员审核通过后,在开放平台,找到OpenClaw应用,发现已启用,已发布,说明创建发布成功,就可以去配置OpenClaw接入飞书了。

在这里插入图片描述

二、OpenClaw配置接入飞书

1.安装飞书插件

1.1 安装飞书插件

#方案1:配置飞书时直接安装#在PowerShell页面输入命名配置接入飞书 PS C:\WINDOWS\system32>openclaw config #方案2:直接打开PowerShell,输入命令安装 openclaw plugins install @m1heng-clawd/feishu 

方案1详细步骤,运行openclaw config命令后,选择本机:Local,然后选择:Channels

在这里插入图片描述


在这里插入图片描述


选择使用飞书作为连接渠道后,如果没有事先安装,会自动下载飞书插件。

在这里插入图片描述


在这里插入图片描述

1.2 配置飞书AppID,AppSecrect(在开发者管理后台,创建的应用-凭证与基础信息中复制)
获取飞书AppID,AppSecrect

在这里插入图片描述


配置飞书AppID,AppSecrect,并选择:Feishu(feishu.cn) - China ,并接受群组聊天,然后选择"YES"。

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


然后选择完成配置

在这里插入图片描述

2.配置飞书事件回调

2.1 重启OpenClaw的网关服务,使配置生效。

#在PowerShell窗口输入命令,重启OpenClaw网关 PS C:\WINDOWS\system32>openclaw gateway 
在这里插入图片描述


2.2 配置事件与回调
切换到飞书开放后台,找到事件与回调,找到:订阅方式,点击设置订阅方式,选择使用长连接,接收事件,并保存

在这里插入图片描述


2.3 添加接收消息事件
然后右下角添加事件变为可选,点击添加事件,搜索:接收消息,然后选中,然后重新发布版本并审核通过。

在这里插入图片描述


在这里插入图片描述

3.使用测试

3.1 在飞书窗口搜索创建的应用:OpenClaw

在这里插入图片描述


3.2 发送消息给OpenClaw机器人测试

在这里插入图片描述

总结

以上就是windows原生环境安装的OpenClaw,配置接入飞书,通过飞书发送消息来指挥OpenClaw助手进行工作的完整配置流程,请参考使用。

Read more

OpenClaw 和 Claude Code、Cursor、Copilot 有什么区别

在了解了 OpenClaw 的基本能力之后,很多人都会产生一个很自然的问题: 它和常见的 AI 编程工具到底有什么区别? 比如: * Claude Code * Cursor * GitHub Copilot 这些工具看起来都能: * 写代码 * 改代码 * 提供建议 但如果你真正用过一段时间,就会发现: 它们解决的问题,其实不在一个层面。 这一篇我们就从实际使用角度,把它们的区别讲清楚。 一、先说结论:它们不是“替代关系” 很多人会下意识认为: OpenClaw 是不是 Cursor / Copilot 的升级版? 其实不是。 更准确的理解是: 它们分属于不同类型的工具,可以配合使用,而不是互相替代。 简单划分一下: * Copilot / Cursor:写代码的助手 * Claude Code:理解和修改代码的助手 * OpenClaw:执行任务的 Agent 接下来我们分别看。 二、

LLaMA Factory多模态微调实践

LLaMA Factory 多模态微调实践 一、前提准备:环境与数据深度适配 (一)运行环境技术规格 1. 硬件配置底层逻辑 * GPU 选型依据: * 推荐 24GB 显存的 A10(ecs.gn7i-c8g1.2xlarge)。 * 核心原因:Qwen2-VL-2B 模型加载后显存占用约 8-10GB,全参微调过程中梯度计算、优化器状态存储需额外 10-12GB 显存,24GB 可避免显存溢出(OOM)。 * 若使用 16GB 显存的 T4 等型号,需启用梯度检查点(gradient checkpointing),但会增加约 20% 训练时间。 * CPU 与内存配套: * 建议 8 核 CPU + 32GB 内存,避免数据加载(

Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本 一 需求分析 * 本地部署的定义与优势(数据隐私、离线使用、定制化)。 * Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。 * 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。 二 环境准备与工具选择 * 硬件要求:GPU 要对应上你所部署的模型大小 * 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型) 三 部署开源模型 这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息 model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost)

华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南

华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南

华为昇腾910B(Ascend 910B)上 LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的保姆级全流程操作指南 华为昇腾910B(Ascend 910B)上使用 LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的保姆级全流程操作指南,包含环境配置、依赖安装、数据准备、训练启动、验证与推理等完整步骤。本教程基于 Ubuntu 20.04 + CANN 8.0 + MindSpore/PyTorch NPU + LLaMA-Factory v0.9.3+ 环境,适用于 8卡昇腾910B服务器。 ✅ 前提条件 项目 要求 硬件