windows部署的OpenClaw接入飞书机器人

windows部署的OpenClaw接入飞书机器人

文章目录


前言

OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,目前国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw,本文主要是配置飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,当然配置钉钉接入也可以作为参考。

  • windowsWindows 本地(PowerShell)一键部署 OpenClaw
  • 飞书账号(有飞书开放平台权限的账号)

一、创建飞书应用

1.登录飞书开放平台

1.1 网页访问,打开飞书开放平台地址:https://open.feishu.cn

在这里插入图片描述


1.2 登录开发者后台

在这里插入图片描述

2.创建企业自建应用

2.1 创建企业自建应用

在这里插入图片描述


给创建的应用命名,我这里为了方便,直接命名为:OpenClaw

在这里插入图片描述


2.2 添加机器人

在这里插入图片描述


2.3 配置开通权限,
在应用中找到-权限管理-找找到“批量导入导出权限”-权限配置JSON-将以下配置复制替换掉现有的默认配置。

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } 

详细操作如下所示:

在这里插入图片描述


在这里插入图片描述

2.4 配置版本号,并保存

在这里插入图片描述


在这里插入图片描述

3.发布企业自建应用

3.1 申请线上发布

在这里插入图片描述


3.2 管理员审批通过
申请线上发布后,飞书管理员会收到申请,找到申请消息,点击进入管理后台审核,

在这里插入图片描述


找到要审核的OpenClaw应用,点击审核

在这里插入图片描述


跳转到审核页面,选择“通过”即可

在这里插入图片描述


3.3 确认创建应用发布成功
管理员审核通过后,在开放平台,找到OpenClaw应用,发现已启用,已发布,说明创建发布成功,就可以去配置OpenClaw接入飞书了。

在这里插入图片描述

二、OpenClaw配置接入飞书

1.安装飞书插件

1.1 安装飞书插件

#方案1:配置飞书时直接安装#在PowerShell页面输入命名配置接入飞书 PS C:\WINDOWS\system32>openclaw config #方案2:直接打开PowerShell,输入命令安装 openclaw plugins install @m1heng-clawd/feishu 

方案1详细步骤,运行openclaw config命令后,选择本机:Local,然后选择:Channels

在这里插入图片描述


在这里插入图片描述


选择使用飞书作为连接渠道后,如果没有事先安装,会自动下载飞书插件。

在这里插入图片描述


在这里插入图片描述

1.2 配置飞书AppID,AppSecrect(在开发者管理后台,创建的应用-凭证与基础信息中复制)
获取飞书AppID,AppSecrect

在这里插入图片描述


配置飞书AppID,AppSecrect,并选择:Feishu(feishu.cn) - China ,并接受群组聊天,然后选择"YES"。

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


然后选择完成配置

在这里插入图片描述

2.配置飞书事件回调

2.1 重启OpenClaw的网关服务,使配置生效。

#在PowerShell窗口输入命令,重启OpenClaw网关 PS C:\WINDOWS\system32>openclaw gateway 
在这里插入图片描述


2.2 配置事件与回调
切换到飞书开放后台,找到事件与回调,找到:订阅方式,点击设置订阅方式,选择使用长连接,接收事件,并保存

在这里插入图片描述


2.3 添加接收消息事件
然后右下角添加事件变为可选,点击添加事件,搜索:接收消息,然后选中,然后重新发布版本并审核通过。

在这里插入图片描述


在这里插入图片描述

3.使用测试

3.1 在飞书窗口搜索创建的应用:OpenClaw

在这里插入图片描述


3.2 发送消息给OpenClaw机器人测试

在这里插入图片描述

总结

以上就是windows原生环境安装的OpenClaw,配置接入飞书,通过飞书发送消息来指挥OpenClaw助手进行工作的完整配置流程,请参考使用。

Read more

本地多模型切换利器——Llama-Swap全攻略

本地多模型切换利器——Llama-Swap全攻略

运行多个大语言模型(LLM)非常有用: 无论是用于比较模型输出、设置备用方案(当一个模型失败时自动切换)、还是实现行为定制(例如一个模型专注写代码,另一个模型专注技术写作),实践中我们经常以这种方式使用 LLM。 一些应用(如 poe.com)已经提供了多模型运行的平台。但如果你希望完全在本地运行、多省 API 成本,并保证数据隐私,情况就会复杂许多。 问题在于:本地设置通常意味着要处理多个端口、运行不同进程,并且手动切换,不够理想。 这正是 Llama-Swap 要解决的痛点。它是一个超轻量的开源代理服务(仅需一个二进制文件),能够让你轻松在多个本地 LLM 之间切换。简单来说,它会在本地监听 OpenAI 风格的 API 请求,并根据请求的模型名称,自动启动或停止对应的模型服务。客户端无需感知底层切换,使用体验完全透明。 📌 Llama-Swap 工作原理 概念上,Llama-Swap 就像一个智能路由器,

Android端Whisper中文语音识别实战:从模型部署到性能优化

快速体验 在开始今天关于 Android端Whisper中文语音识别实战:从模型部署到性能优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 在Android设备上实现高效的语音识别一直是个挑战,尤其是处理中文这种复杂的语言。最近我尝试将OpenAI的Whisper模型集成到Android应用中,过程中遇到了不少坑,也总结了一些优化经验,分享给大家。 移动端语音识别的特殊挑战 1. 算力限制:相比服务器,手机CPU和GPU性能有限,特别是低端设备。