OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

这次,OpenClaw 插件迎来了一次重要更新。
现在,你可以直接在插件中配置 飞书机器人或 QQ 机器人,让 OpenClaw 真正走出 Web 界面,进入你日常使用的消息工具中。
无需额外部署服务,配置完成后即可开始对话。

在这里插入图片描述

重要提示:由于官方更改包名,不支持直接升级,如需更新请卸载旧版插件,安装新版OpenClaw插件,已有数据会丢失,请您评估是否需要更新,新安装不受影响。
配置QQ机器人1. 打开QQ开放平台,注册账号,如已注册可直接登陆

在这里插入图片描述

点击编辑 IP 白名单,填写服务器 IP 并保存

在这里插入图片描述

点击开发管理,获取APPID、AppSecret

在这里插入图片描述

创建完成后点击刚刚创建的机器人

在这里插入图片描述

填写机器人基础信息

在这里插入图片描述

登录后点击机器人,创建机器人

在这里插入图片描述

按提示完成登录

在这里插入图片描述

8.将获取到的信息填写到插件,并保存启用

在这里插入图片描述

添加后即可在群聊中进行对话

在这里插入图片描述

在此处添加完成后回到QQ-群管理-添加机器人,在其他页面找到机器人

在这里插入图片描述

选择需要使用的群聊

在这里插入图片描述

回到QQ机器人平台,点击沙箱配置

在这里插入图片描述

等待安装插件

在这里插入图片描述

点击保存配置

在这里插入图片描述

到这里,Clawdbot 已经成功接入 QQ,
从配置文件里的一个服务,变成了可以在群聊中响应消息的机器人。

  1. 回到面板插件,将appid和secret填写到插件页面,并点击确定保存

在凭证与基础信息页面,获取应用凭证

在这里插入图片描述

在权限管理页面,允许以下权限

在这里插入图片描述


在这里插入图片描述


![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/17ef658d381e4cb9a59c5d2b5e4a0918.png

在这里插入图片描述


建议同步放通可选权限

在这里插入图片描述


在这里插入图片描述

应用能力,选择机器人

在这里插入图片描述

打开飞书开放平台创建企业自建应用

在这里插入图片描述


2.填写基本信息点击创建

在这里插入图片描述
在这里插入图片描述


6. 点击保存配置,安装飞书插件

在这里插入图片描述


7. 安装配置完成后,在事件与回调配置中,选择事件配置,订阅方式选择长连接,保存

在这里插入图片描述


8. 点击添加事件,添加以下订阅事件

在这里插入图片描述


9. 开通后点击创建版本,完成发布
10.现在就可以对话

在这里插入图片描述

Read more

FaceRecon-3D应用探索:社交平台头像3D化+AR互动新玩法

FaceRecon-3D应用探索:社交平台头像3D化+AR互动新玩法 你是否想过,社交平台上的头像不再是一张扁平的图片,而是一个可以360度旋转、能做出表情、甚至能和你互动的3D数字形象?这听起来像是科幻电影里的场景,但今天,借助FaceRecon-3D这项技术,它已经触手可及。 对于内容创作者、游戏玩家或任何希望在数字世界展现独特个性的人来说,制作一个专业的3D头像曾经是门槛极高的事情。它需要昂贵的3D扫描设备、复杂的建模软件和漫长的学习过程。但现在,你只需要一张普通的自拍照。 FaceRecon-3D是一个革命性的单图3D人脸重建系统。它就像一个“维度转换器”,能将你手机相册里的任何一张人脸照片,在几秒钟内,变成一个拥有精细几何结构和真实皮肤纹理的3D模型。更重要的是,这个技术已经变得极其易用,无需任何复杂的配置,打开网页就能体验。 本文将带你探索如何将FaceRecon-3D生成的3D头像,应用到社交平台和AR互动中,开启全新的数字社交体验。 1. 从2D到3D:FaceRecon-3D核心能力速览 在深入玩法之前,我们先快速了解一下FaceRecon-3D到底能做

50 行代码搞定 SLAM+AI Agent!机器人自主导航最小原型,看完就能跑

你想快速搞懂「SLAM+AI Agent」到底怎么让机器人变 “智能” 吗?不用堆公式、不用装复杂环境,纯 Python 实现极简可运行 Demo,看完就能复现,还能直接迁移到真实机器人开发! 一、一句话讲透核心逻辑 * SLAM = 机器人的眼睛 + 定位:回答 “我在哪?周围环境什么样?” * AI Agent = 机器人的大脑 + 决策:回答 “我该去哪?怎么走?避障怎么搞?” * SLAM+AI Agent = 能自主走路的智能机器人:眼睛感知→大脑决策→身体执行,形成闭环。 二、极简 Demo 目标(10×10 网格场景) 机器人从 (0,0) 出发,

Sharpa Robotics量产视觉基触觉手SharpaWave!0.005N超敏感知+模块化设计,攻克通用机器人操纵痛点

Sharpa Robotics量产视觉基触觉手SharpaWave!0.005N超敏感知+模块化设计,攻克通用机器人操纵痛点

摘要:新加坡 Sharpa Robotics 宣布旗舰灵巧手 SharpaWave 量产,采用创新 “动态触觉阵列” 视觉基感知方案,实现 0.005N 压力灵敏度,搭配 22 主动自由度与 6 维力传感,可完成敲蛋、操作工业工具等复杂任务。产品支持模块化换指(降低维修成本),配套开源软件栈适配主流仿真环境,瞄准通用机器人市场,即将亮相 2026 CES 创新奖。 引言:通用机器人的 “触觉短板” 终破局,视觉基灵巧手量产来袭 通用机器人要实现 “类人操纵”,核心瓶颈在于 “触觉感知”:传统机器人手要么触觉灵敏度低(无法完成敲蛋、持握轻薄物体等精细任务),要么结构复杂维修难(单部件故障需整机更换, downtime 长、成本高),难以适配科研与工业的多样化需求。 Sharpa Robotics 宣布

用Sambert-HifiGan为AR/VR体验添加沉浸式语音

用Sambert-HifiGan为AR/VR体验添加沉浸式语音 引言:让虚拟世界“开口说话”——中文多情感语音合成的必要性 在增强现实(AR)与虚拟现实(VR)系统中,沉浸感是用户体验的核心指标。视觉渲染、空间交互固然重要,但真正能“打动人心”的,往往是自然流畅的语音反馈。传统预录音频缺乏灵活性,而机械单调的TTS(Text-to-Speech)系统又难以传递情绪,容易破坏沉浸氛围。 为此,高质量、多情感的中文语音合成技术成为AR/VR内容升级的关键突破口。用户期望听到的不仅是“正确发音”,更是带有喜怒哀乐、语调起伏的“有温度的声音”。ModelScope推出的 Sambert-HifiGan 中文多情感语音合成模型 正是为此类场景量身打造——它不仅能准确还原汉字发音,还能根据上下文或控制信号生成不同情感色彩的语音输出,极大提升了人机交互的真实感。 本文将深入解析如何基于该模型构建一个稳定、易用、可集成的语音服务系统,并探讨其在AR/VR应用中的工程落地路径。 技术架构解析:Sambert-HifiGan 模型核心机制 1. Sambert:高保真声学建模的基石