OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

这次,OpenClaw 插件迎来了一次重要更新。
现在,你可以直接在插件中配置 飞书机器人或 QQ 机器人,让 OpenClaw 真正走出 Web 界面,进入你日常使用的消息工具中。
无需额外部署服务,配置完成后即可开始对话。

在这里插入图片描述

重要提示:由于官方更改包名,不支持直接升级,如需更新请卸载旧版插件,安装新版OpenClaw插件,已有数据会丢失,请您评估是否需要更新,新安装不受影响。
配置QQ机器人1. 打开QQ开放平台,注册账号,如已注册可直接登陆

在这里插入图片描述

点击编辑 IP 白名单,填写服务器 IP 并保存

在这里插入图片描述

点击开发管理,获取APPID、AppSecret

在这里插入图片描述

创建完成后点击刚刚创建的机器人

在这里插入图片描述

填写机器人基础信息

在这里插入图片描述

登录后点击机器人,创建机器人

在这里插入图片描述

按提示完成登录

在这里插入图片描述

8.将获取到的信息填写到插件,并保存启用

在这里插入图片描述

添加后即可在群聊中进行对话

在这里插入图片描述

在此处添加完成后回到QQ-群管理-添加机器人,在其他页面找到机器人

在这里插入图片描述

选择需要使用的群聊

在这里插入图片描述

回到QQ机器人平台,点击沙箱配置

在这里插入图片描述

等待安装插件

在这里插入图片描述

点击保存配置

在这里插入图片描述

到这里,Clawdbot 已经成功接入 QQ,
从配置文件里的一个服务,变成了可以在群聊中响应消息的机器人。

  1. 回到面板插件,将appid和secret填写到插件页面,并点击确定保存

在凭证与基础信息页面,获取应用凭证

在这里插入图片描述

在权限管理页面,允许以下权限

在这里插入图片描述


在这里插入图片描述


![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/17ef658d381e4cb9a59c5d2b5e4a0918.png

在这里插入图片描述


建议同步放通可选权限

在这里插入图片描述


在这里插入图片描述

应用能力,选择机器人

在这里插入图片描述

打开飞书开放平台创建企业自建应用

在这里插入图片描述


2.填写基本信息点击创建

在这里插入图片描述
在这里插入图片描述


6. 点击保存配置,安装飞书插件

在这里插入图片描述


7. 安装配置完成后,在事件与回调配置中,选择事件配置,订阅方式选择长连接,保存

在这里插入图片描述


8. 点击添加事件,添加以下订阅事件

在这里插入图片描述


9. 开通后点击创建版本,完成发布
10.现在就可以对话

在这里插入图片描述

Read more

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

前端微前端:大型应用的模块化解决方案

前端微前端:大型应用的模块化解决方案 毒舌时刻 前端微前端?这不是过度设计吗? "我的应用不大,不需要微前端"——结果应用越来越大,维护困难, "微前端太复杂了,不如一个大单体"——结果团队协作困难,部署冲突, "我用iframe就够了"——结果性能差,用户体验差。 醒醒吧,微前端不是银弹,但对于大型应用来说,它是一个有效的解决方案! 为什么你需要这个? * 团队协作:不同团队可以独立开发和部署 * 技术栈灵活:不同微前端可以使用不同的技术栈 * 独立部署:单个微前端可以独立部署,不影响其他部分 * 可扩展性:可以轻松添加新的微前端 反面教材 <!-- 反面教材:使用iframe实现微前端 --> <!DOCTYPE html> <html>

【LLM】Ollama:本地大模型 WebAPI 调用实战指南

1. 为什么选择Ollama部署本地大模型 最近两年大模型技术发展迅猛,但很多开发者面临一个现实问题:公有云API调用不仅费用高昂,还存在数据隐私风险。Ollama的出现完美解决了这个痛点,它就像是你本地的模型管家,可以一键部署各种开源大模型。我去年在开发智能客服系统时就深受其益,既避免了敏感客户数据外泄,又省下了大笔API调用费用。 与传统方案相比,Ollama有三大优势:首先是安装简单,用Docker一条命令就能跑起来;其次是模型丰富,支持Llama、Mistral等主流开源模型;最重要的是API标准化,完全兼容OpenAI的接口规范。实测在16GB内存的MacBook Pro上运行7B参数的模型,响应速度可以控制在2秒以内,完全能满足大多数应用场景。 2. 五分钟快速搭建Ollama环境 2.1 准备工作就像搭积木 在开始之前,我们需要准备两个基础组件:Docker和Python环境。这里有个小技巧分享——建议使用Docker Desktop的WSL2后端(Windows用户),性能比传统虚拟机模式提升30%以上。安装完成后,记得执行以下命令验证版本: docker

前端国际化:别让你的应用只懂一种语言

前端国际化:别让你的应用只懂一种语言 毒舌时刻 这应用写得跟方言似的,出了本地就没人懂。 各位前端同行,咱们今天聊聊前端国际化。别告诉我你的应用还只有中文版本,那感觉就像在国际会议上只说方言——能说,但没人懂。 为什么你需要国际化 最近看到一个项目,想拓展海外市场,但所有文本都是硬编码在代码里的。我就想问:你是在做本地应用还是在做国际产品? 反面教材 // 反面教材:硬编码文本 function App() { return ( <div> <h1>欢迎来到我的网站</h1> <p>这是一个示例应用</p> <button>点击我</button> <div>