WorkBuddy 使用指南:从零开始配置 QQ 机器人,解锁桌面智能体新玩法

WorkBuddy 使用指南:从零开始配置 QQ 机器人,解锁桌面智能体新玩法

文章目录

前言

在大家还在沉迷于如何搭建 OpenClaw 的时候,腾讯竟然悄悄公测了 WorkBuddy。这是一款面向全角色的桌面智能体,下达指令即可自动生成文档、表格、图表及 PPT 等可视化成果,能够自主规划并交付多模态复杂任务结果,支持多 Agents 并行工作,极致提效,并内置主流 MCP 与 Skills 以扩展能力边界。本篇文章将带大家了解如何使用 WorkBuddy 接入 QQ,并通过 QQ 实现任务的发布等功能。

下载 WorkBuddy

访问官网,在导航处选择 WorkBuddy,并选择符合自己电脑系统的版本进行下载安装即可。

认识 WorkBuddy

如图所示,WorkBuddy 界面简洁,侧边栏初始时有三个 Tab,分别是 新建任务Claw插件市场

插件类型

WorkBuddy 支持以下几种插件类型:

类型说明
Skill技能插件,为 WorkBuddy 添加特定领域的能力
MCPModel Context Protocol 插件,连接外部服务和数据源
Hook钩子插件,在特定时机自动执行操作
Agent智能体插件,提供专门的任务处理能力
Rule规则插件,定义 WorkBuddy 的行为规范

配置 QQ 机器人

登录 QQ 开放平台并注册激活账号

如果你之前没有使用过 QQ 开放平台,需要先进行注册。点击链接,通过该网址完成账号注册。

按照要求注册账号并完成实名认证,正确登记后即可激活。

配置超级管理员、主体及认证信息

  1. 为自己或他人设置超级管理员,填写相关信息。
  1. 填写主体信息,可选择企业、个体户或个人,按需选择即可。以下为选择个人的示例,填写完表单后继续。
  1. 审核通过并完成人脸识别后,即可正式入驻 QQ 开放平台。

创建 QQ 机器人

  1. 前往 QQ 开发平台,使用前面注册的账号扫码登录。
  1. 选择资源类型进行创建,本次目标是创建机器人,选择机器人选项即可。
  1. 创建机器人,填写名称、头像及描述信息。
  1. 提交创建后,页面会自动展示已申请的机器人列表。

获取 AppID 和 AppSecret

  1. 点击刚刚审核通过的机器人,进入配置发布流程页面。
  2. 点击「开发管理」,复制 AppID;在 AppSecret 处点击生成按钮,重置并复制 AppSecret
注意:若非第一次获取,再次复制 AppSecret 时需要重新生成。

在 WorkBuddy 中填写刚刚获得的 AppIDAppSecret

从 Claw 中获取 Webhook

返回 WorkBuddy 的 Claw 页面,复制页面中提供的 Webhook 地址。

在 QQ 开发平台配置回调地址

  1. 前往 机器人后台,点击需要配置的机器人名称(若有多个机器人,请选择对应的机器人进行配置)。
  1. 进入 回调配置页面,将上一步复制的 Webhook 地址粘贴到请求地址栏,并保存。
  1. 完成请求地址填写并添加所需事件后,点击「确认配置」按钮使配置生效,如下图所示。

开始使用 WorkBuddy Claw

  1. 完成配置后,在 WorkBuddy 中点击二维码,使用 QQ 扫码即可开始聊天。
  1. 回到 QQ 中与 WorkBuddy 互动,下达指令让其启动一个定时任务。
  1. 实时执行效果预览如下。

就这样,我们相当于拥有了一个 24 小时在线的"工人",随时帮我们监测黄金走势。

至此,WorkBuddy 接入 QQ 的完整配置流程已全部完成,感兴趣的开发者快来上手体验吧!

总结

WorkBuddy 的核心价值在于将 AI 智能体能力与日常通讯工具打通,用户只需通过 QQ 发送一条消息,便可驱动后台多 Agents 协同完成复杂任务。无论是定时监控、信息汇总还是自动报告生成,都能轻松应对,真正实现"让 AI 替你工作"。

Read more

YOLOv8n机器人场景目标检测实战|第一周工作笔记1

核心完成项:基于Conda搭建Ultralytics8.0+PyTorch2.1专属环境,完成COCO2017机器人场景子集筛选(8000张,7000训+1000验),跑通YOLOv8n基础训练(epoch=50),小障碍物mAP≥65%,模型可正常输出推理结果,满足周验收全部目标。 环境说明:全程使用Conda进行包管理与环境隔离,无pip命令使用,规避版本兼容问题;模型选用YOLOv8n(轻量化版本,适配机器人端算力限制),替代原计划YOLOv9n,核心实操逻辑一致。 一、本周核心目标与执行思路 1. 核心目标 1. 掌握YOLO系列核心创新与轻量化模型适配逻辑,聚焦机器人室内小场景(室内小障碍物/桌椅/行人/台阶)检测需求; 2. 搭建稳定可复现的Ultralytics+PyTorch训练环境,规避版本冲突; 3. 筛选并整理符合YOLO格式的机器人场景自定义数据集,完成基础标注与训练集/验证集划分; 4. 跑通YOLOv8n基础训练流程,验证数据集与模型兼容性,获取基础精度、参数量、

【具身智能】具身机器人VLA算法入门及实战(一):具身智能系统及VLA

【具身智能】具身机器人VLA算法入门及实战(一):具身智能系统及VLA

具身机器人VLA算法入门及实战(一):具身智能系统及VLA * 一、常见具身智能系统 * 二、具身智能数据获取方式 * 三、具身智能-感知系统 * 四、具身智能学习方式 * 五、工业机器人及应用需求 * 六、VLA架构及开源项目 * 6.1 VLA架构 * 6.2 开源项目 * 七、机器人操作案例 一、常见具身智能系统 二、具身智能数据获取方式 数据获取平台: Isaac Sim, Isaac Gym, Mujoco, 桃园 2.0 数据增强平台: RoboVerse, Genie Studio, DexMimicGen 三、具身智能-感知系统 四、具身智能学习方式 五、工业机器人及应用需求 六、VLA架构及开源项目 6.

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

问题现象: 与驱动联调:驱动无法扫描到Xilinx的PCIE设备 通过ila抓取pcie_link_up信号:发现link up一直为低 问题分析:         出现这种情况,在FPGA中搭建测试环境,使用XDMA+BRAM的形式,减少其它模块的影响,框架如下: 1 检查PCIE的时钟 时钟,必须使用原理图上的GT Ref 差分时钟,通过IBUFDSGTE转为单端时钟 2 检查PCIE 复位 复位:PCIE复位信号有要求--上电后,PCIE_RESTN信号需在电源稳定后延迟一段时间再释放,通常是100ms以上 而这100ms的时间,系统主要做以下的事情: * 电源稳定时间 * 参考时钟稳定时间 * PCIe IP核的复位和初始化时间 * 链路训练时间 // 典型的100ms时间分配: 0-10ms   : 电源稳定 (Power Stable) 10-20ms  : 参考时钟稳定 (Refclk Stable)   20-30ms  : 复位释放和PLL锁定 (Reset Release

阿里云的moltbot机器人使用钉钉的Stream流式接入

注意 1. 这个不需要工作流 2. 这个不需要开放外网 具体方法: 1.check代码https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector 2.package.json增加如下代码 "moltbot": { "extensions": ["./plugin.ts"], "channels": ["dingtalk-connector"], "installDependencies": true } 3.安装插件 moltbot plugins install dingtalk-moltbot-connector 4.增加钉钉配置~/.moltbot/moltbot.json;如果有了进行提花 { "channels"