WorkBuddy 使用指南:从零开始配置 QQ 机器人,解锁桌面智能体新玩法

WorkBuddy 使用指南:从零开始配置 QQ 机器人,解锁桌面智能体新玩法

文章目录

前言

在大家还在沉迷于如何搭建 OpenClaw 的时候,腾讯竟然悄悄公测了 WorkBuddy。这是一款面向全角色的桌面智能体,下达指令即可自动生成文档、表格、图表及 PPT 等可视化成果,能够自主规划并交付多模态复杂任务结果,支持多 Agents 并行工作,极致提效,并内置主流 MCP 与 Skills 以扩展能力边界。本篇文章将带大家了解如何使用 WorkBuddy 接入 QQ,并通过 QQ 实现任务的发布等功能。

下载 WorkBuddy

访问官网,在导航处选择 WorkBuddy,并选择符合自己电脑系统的版本进行下载安装即可。

认识 WorkBuddy

如图所示,WorkBuddy 界面简洁,侧边栏初始时有三个 Tab,分别是 新建任务Claw插件市场

插件类型

WorkBuddy 支持以下几种插件类型:

类型说明
Skill技能插件,为 WorkBuddy 添加特定领域的能力
MCPModel Context Protocol 插件,连接外部服务和数据源
Hook钩子插件,在特定时机自动执行操作
Agent智能体插件,提供专门的任务处理能力
Rule规则插件,定义 WorkBuddy 的行为规范

配置 QQ 机器人

登录 QQ 开放平台并注册激活账号

如果你之前没有使用过 QQ 开放平台,需要先进行注册。点击链接,通过该网址完成账号注册。

按照要求注册账号并完成实名认证,正确登记后即可激活。

配置超级管理员、主体及认证信息

  1. 为自己或他人设置超级管理员,填写相关信息。
  1. 填写主体信息,可选择企业、个体户或个人,按需选择即可。以下为选择个人的示例,填写完表单后继续。
  1. 审核通过并完成人脸识别后,即可正式入驻 QQ 开放平台。

创建 QQ 机器人

  1. 前往 QQ 开发平台,使用前面注册的账号扫码登录。
  1. 选择资源类型进行创建,本次目标是创建机器人,选择机器人选项即可。
  1. 创建机器人,填写名称、头像及描述信息。
  1. 提交创建后,页面会自动展示已申请的机器人列表。

获取 AppID 和 AppSecret

  1. 点击刚刚审核通过的机器人,进入配置发布流程页面。
  2. 点击「开发管理」,复制 AppID;在 AppSecret 处点击生成按钮,重置并复制 AppSecret
注意:若非第一次获取,再次复制 AppSecret 时需要重新生成。

在 WorkBuddy 中填写刚刚获得的 AppIDAppSecret

从 Claw 中获取 Webhook

返回 WorkBuddy 的 Claw 页面,复制页面中提供的 Webhook 地址。

在 QQ 开发平台配置回调地址

  1. 前往 机器人后台,点击需要配置的机器人名称(若有多个机器人,请选择对应的机器人进行配置)。
  1. 进入 回调配置页面,将上一步复制的 Webhook 地址粘贴到请求地址栏,并保存。
  1. 完成请求地址填写并添加所需事件后,点击「确认配置」按钮使配置生效,如下图所示。

开始使用 WorkBuddy Claw

  1. 完成配置后,在 WorkBuddy 中点击二维码,使用 QQ 扫码即可开始聊天。
  1. 回到 QQ 中与 WorkBuddy 互动,下达指令让其启动一个定时任务。
  1. 实时执行效果预览如下。

就这样,我们相当于拥有了一个 24 小时在线的"工人",随时帮我们监测黄金走势。

至此,WorkBuddy 接入 QQ 的完整配置流程已全部完成,感兴趣的开发者快来上手体验吧!

总结

WorkBuddy 的核心价值在于将 AI 智能体能力与日常通讯工具打通,用户只需通过 QQ 发送一条消息,便可驱动后台多 Agents 协同完成复杂任务。无论是定时监控、信息汇总还是自动报告生成,都能轻松应对,真正实现"让 AI 替你工作"。

Read more

OpenClaw对接飞书机器人高频踩坑实战指南:从插件安装到回调配对全解析

前言 当前企业办公场景中,将轻量级AI框架OpenClaw与飞书机器人结合,能够快速实现智能交互、流程自动化等功能。然而,在实际对接过程中,开发者常常因权限配置、环境依赖、回调设置等细节问题陷入反复试错。本文以“问题解决”为核心,梳理了10个典型踩坑点,每个问题均配套原因分析、排查步骤和实操案例。同时,补充高效调试技巧与功能扩展建议,帮助开发者系统性地定位并解决对接障碍,提升落地效率。所有案例基于Windows 11环境、OpenClaw最新稳定版及飞书开放平台最新界面验证,解决方案可直接复用。 一、前置准备(快速自查) 为避免基础环境问题浪费时间,建议在开始前确认以下三点: * OpenClaw已正确安装,终端执行 openclaw -v 可查看版本(建议使用最新版,旧版本可能存在插件兼容风险)。 * Node.js版本不低于v14,npm版本不低于v6,通过 node -v 和 npm -v 验证,防止因依赖版本过低导致插件安装失败。 * 飞书账号需具备企业开发者权限(企业账号需管理员授权,个人账号默认具备)

AI小说生成器终极指南:从零打造你的智能写作助手

AI小说生成器终极指南:从零打造你的智能写作助手 【免费下载链接】AI_NovelGenerator使用ai生成多章节的长篇小说,自动衔接上下文、伏笔 项目地址: https://gitcode.com/GitHub_Trending/ai/AI_NovelGenerator 深夜,你坐在电脑前,面对空白的文档,脑海中构思已久的故事情节却难以流畅地转化为文字。角色对话生硬,剧情推进乏力,伏笔设置混乱——这是许多创作者面临的共同困境。现在,让我们一同探索如何利用AI_NovelGenerator这个强大的工具,彻底改变你的创作体验。 开篇引语:当AI遇见文学创作 想象一下,你只需要设定一个核心主题,AI就能自动为你生成完整的小说设定、章节目录,甚至每一章的详细内容。AI_NovelGenerator正是这样一个革命性的平台,它将人工智能技术与文学创作完美结合,为写作者提供前所未有的创作支持。 创作新纪元:AI_NovelGenerator不仅仅是工具,更是你的创作伙伴。它能理解上下文关系,自动衔接剧情,设置精妙伏笔,让长篇小说的创作变得轻松而富有乐趣。 核心功能详解:智能

从单卡到多卡:Llama Factory微调扩展指南

从单卡到多卡:Llama Factory微调扩展指南 如果你已经成功在单卡GPU上完成了小规模语言模型的微调,现在想要扩展到更大的模型却不知从何下手,这篇文章正是为你准备的。LLaMA-Factory作为一个高效的大语言模型微调框架,能帮助你从单卡环境平滑过渡到多卡分布式训练。本文将详细介绍如何利用LLaMA-Factory实现模型微调的横向扩展,包括环境配置、参数调整和显存优化等关键技巧。 为什么需要从单卡扩展到多卡 当模型规模超过单卡显存容量时,多卡并行训练就成为必然选择。根据实际测试数据: * 7B参数模型全参数微调需要约80GB显存 * 13B参数模型需要约160GB显存 * 70B参数模型可能需要超过600GB显存 这些需求远超单张消费级显卡的容量,此时就需要: 1. 数据并行:将训练数据分片到不同GPU 2. 模型并行:将模型参数拆分到不同GPU 3. 混合策略:结合上述两种方法 LLaMA-Factory多卡环境准备 LLaMA-Factory支持多种分布式训练策略,以下是基础环境配置步骤: 1. 确保所有GPU型号和驱动版本一致 2

5步快速搭建:OpenAI Whisper本地语音转文字终极指南

5步快速搭建:OpenAI Whisper本地语音转文字终极指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为语音转文字需求而烦恼吗?想要在本地设备上实现专业级的语音识别功能吗?今天我们将完整揭秘如何通过OpenAI Whisper模型,在个人电脑上搭建稳定高效的语音转文字系统。无论你是技术开发者还是AI爱好者,这套方案都能让你在30分钟内完成部署!🚀 为什么选择本地部署Whisper? 传统语音识别服务往往受限于网络环境和隐私顾虑,而本地化部署的Whisper模型提供了完美的解决方案。它不仅支持60多种语言的实时转录,还能在完全离线的环境下运行,确保你的音频数据绝对安全。 核心优势对比: | 特性 | 云端服务 | Whisper本地部署 | |------|----------|-----------------| | 数据隐私 | 数据上传云端 | 完全本地处理 | | 网络依赖 | 必须联网 | 完全离线运行 | | 成本控制 |