WorkBuddy 使用指南:从零开始配置 QQ 机器人,解锁桌面智能体新玩法

WorkBuddy 使用指南:从零开始配置 QQ 机器人,解锁桌面智能体新玩法

文章目录

前言

在大家还在沉迷于如何搭建 OpenClaw 的时候,腾讯竟然悄悄公测了 WorkBuddy。这是一款面向全角色的桌面智能体,下达指令即可自动生成文档、表格、图表及 PPT 等可视化成果,能够自主规划并交付多模态复杂任务结果,支持多 Agents 并行工作,极致提效,并内置主流 MCP 与 Skills 以扩展能力边界。本篇文章将带大家了解如何使用 WorkBuddy 接入 QQ,并通过 QQ 实现任务的发布等功能。

下载 WorkBuddy

访问官网,在导航处选择 WorkBuddy,并选择符合自己电脑系统的版本进行下载安装即可。

认识 WorkBuddy

如图所示,WorkBuddy 界面简洁,侧边栏初始时有三个 Tab,分别是 新建任务Claw插件市场

插件类型

WorkBuddy 支持以下几种插件类型:

类型说明
Skill技能插件,为 WorkBuddy 添加特定领域的能力
MCPModel Context Protocol 插件,连接外部服务和数据源
Hook钩子插件,在特定时机自动执行操作
Agent智能体插件,提供专门的任务处理能力
Rule规则插件,定义 WorkBuddy 的行为规范

配置 QQ 机器人

登录 QQ 开放平台并注册激活账号

如果你之前没有使用过 QQ 开放平台,需要先进行注册。点击链接,通过该网址完成账号注册。

按照要求注册账号并完成实名认证,正确登记后即可激活。

配置超级管理员、主体及认证信息

  1. 为自己或他人设置超级管理员,填写相关信息。
  1. 填写主体信息,可选择企业、个体户或个人,按需选择即可。以下为选择个人的示例,填写完表单后继续。
  1. 审核通过并完成人脸识别后,即可正式入驻 QQ 开放平台。

创建 QQ 机器人

  1. 前往 QQ 开发平台,使用前面注册的账号扫码登录。
  1. 选择资源类型进行创建,本次目标是创建机器人,选择机器人选项即可。
  1. 创建机器人,填写名称、头像及描述信息。
  1. 提交创建后,页面会自动展示已申请的机器人列表。

获取 AppID 和 AppSecret

  1. 点击刚刚审核通过的机器人,进入配置发布流程页面。
  2. 点击「开发管理」,复制 AppID;在 AppSecret 处点击生成按钮,重置并复制 AppSecret
注意:若非第一次获取,再次复制 AppSecret 时需要重新生成。

在 WorkBuddy 中填写刚刚获得的 AppIDAppSecret

从 Claw 中获取 Webhook

返回 WorkBuddy 的 Claw 页面,复制页面中提供的 Webhook 地址。

在 QQ 开发平台配置回调地址

  1. 前往 机器人后台,点击需要配置的机器人名称(若有多个机器人,请选择对应的机器人进行配置)。
  1. 进入 回调配置页面,将上一步复制的 Webhook 地址粘贴到请求地址栏,并保存。
  1. 完成请求地址填写并添加所需事件后,点击「确认配置」按钮使配置生效,如下图所示。

开始使用 WorkBuddy Claw

  1. 完成配置后,在 WorkBuddy 中点击二维码,使用 QQ 扫码即可开始聊天。
  1. 回到 QQ 中与 WorkBuddy 互动,下达指令让其启动一个定时任务。
  1. 实时执行效果预览如下。

就这样,我们相当于拥有了一个 24 小时在线的"工人",随时帮我们监测黄金走势。

至此,WorkBuddy 接入 QQ 的完整配置流程已全部完成,感兴趣的开发者快来上手体验吧!

总结

WorkBuddy 的核心价值在于将 AI 智能体能力与日常通讯工具打通,用户只需通过 QQ 发送一条消息,便可驱动后台多 Agents 协同完成复杂任务。无论是定时监控、信息汇总还是自动报告生成,都能轻松应对,真正实现"让 AI 替你工作"。

Read more

人工智能 Gemini 2.5 Pro:深度解析技术突破与实战应用

人工智能 Gemini 2.5 Pro:深度解析技术突破与实战应用

🎬 个人主页:艾莉丝努力练剑 ❄专栏传送门:《C语言》《数据结构与算法》《C/C++干货分享&学习过程记录》 《Linux操作系统编程详解》《笔试/面试常见算法:从基础到进阶》《Python干货分享》 ⭐️为天地立心,为生民立命,为往圣继绝学,为万世开太平 🎬 艾莉丝的简介: 文章目录 * 前言 * 一、技术架构的三大革命性突破 * 1.1 稀疏混合专家架构:容量与效率的完美平衡 * 1.2 动态推理预算:让AI学会"思考" * 1.3 超长上下文处理:百万Token带来的质变 * 二、多模态能力的实质性突破 * 2.1 视频理解到交互应用 * 2.2 图像到代码的精准转换 * 2.3 跨模态逻辑推理

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册 1. 为什么你需要这个镜像——告别密钥混乱与模型适配烦恼 你是否遇到过这样的场景: * 项目里同时调用文心一言写营销文案、用ChatGLM做内部知识问答、再接入通义千问生成技术文档,结果每个模型都要单独配置api_key、base_url、请求头格式、流式开关逻辑……代码里堆满条件判断; * 测试环境用的是本地Ollama的Qwen2,生产环境切到百度千帆的文心一言4.5,一改base_url和模型名,就报400 Bad Request——原来千帆不支持OpenAI原生的temperature字段命名,得改成top_p; * 运维同事半夜被报警电话叫醒:“线上服务崩了!查了一小时发现是讯飞星火的API密钥过期了,但没人知道它被用在哪个微服务里……” 这些问题,不是你代码写得不够好,而是缺一个统一的API网关层。 这不是一个需要你从零搭建的复杂系统,而是一个真正“开箱即用”的镜像——它把所有主流大模型(包括ChatGLM、文心一言、通义千问、讯飞星火等)的差异全部封装掉,对外只暴露标准的OpenAI API

揭秘AI大模型通信机制:深入理解流式传输与数据封装逻辑

揭秘AI大模型通信机制:深入理解流式传输与数据封装逻辑

文章目录 * 前言 * 一、 核心数据传输格式详解 * 1. 请求格式 * 2. 响应格式:非流式 * 3. 响应格式:流式 * 二、 流程图分析:从输入到输出 * 1. 流程逻辑描述 * 2. 流程图 (Mermaid 代码表示) * 三、 原理架构图分析 * 1. 架构层级说明 * 2. 架构图 (Mermaid 代码表示) * 四、 关键技术原理深度解析 * 1. 为什么选择 SSE 而不是 WebSocket? * 2. Token 与数据传输的关系 * 3. 数据压缩 * 五、 总结 前言 Ai聊天工具(如ChatGPT、Claude、文心一言等)的数据传输是核心功能的基石。要深入理解其背后的机制,

5步搞定!用Ollama玩转Llama-3.2-3B文本生成

5步搞定!用Ollama玩转Llama-3.2-3B文本生成 你是不是也试过在本地跑大模型,结果被复杂的环境配置、显存报错、依赖冲突搞得头大?或者下载完模型发现根本不会用,对着空白输入框发呆?别担心——这次我们不搞虚的,就用最轻量的方式,5个清晰步骤,从零开始把Llama-3.2-3B真正“用起来”。 这不是一篇讲原理的论文,也不是堆参数的说明书。它是一份写给真实使用者的操作手记:没有Docker命令恐惧症,不碰CUDA版本焦虑,不查GPU显存表,连笔记本都能跑得动。重点就一个:让你今天下午就能写出第一句由Llama-3.2-3B生成的、像人话一样的文字。 Llama-3.2-3B是Meta最新发布的轻量级指令微调模型,30亿参数,专为多语言对话优化。它不像动辄几十GB的大块头那样吃资源,却在文案生成、逻辑推理、多轮问答等任务上表现扎实。更重要的是——它和Ollama是天生一对。Ollama把模型封装成“开箱即用”的服务,而Llama-3.2-3B则把能力稳稳装进这个盒子。我们不需要知道Transformer里有多少层注意力头,只需要知道:点一下、输一句、等两秒、看到结果。 下