腾讯WorkBuddy微信直连实战:用企业微信WebSocket搭建“AI同事”

腾讯WorkBuddy微信直连实战:用企业微信WebSocket搭建“AI同事”

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

一、从“养龙虾”到“国产小龙虾”:打工人的数字替身来了

最近圈里有个挺有意思的说法叫“养龙虾”——不是夜宵摊上那个麻辣味儿的,是指在电脑里养一个AI Agent(智能体),让它帮你24小时不合眼地干活。这概念火归火,但之前那款海外开源工具对国内用户属实不太友好:配环境、调接口、租服务器,折腾一圈下来,头发掉了三把,龙虾还没养熟。

就在2026年3月9号,腾讯突然扔出来一个叫WorkBuddy的桌面端AI智能体,江湖人称“腾讯版小龙虾”。这玩意儿最狠的地方在于零部署——官网下载安装包,双击运行,扫码登录,完事儿。不需要买云服务器,不需要配Docker,你的办公电脑就是它的大本营。

更妙的是,它内置了企业微信的WebSocket长连接能力。这意味着啥?意味着你可以躺在家里沙发上,用手机给企业微信里的机器人发条语音:“把今天销售报表整理成PPT”,你工位上那台没关机的电脑立刻就开始吭哧吭哧干活。等你第二天到公司,成品已经躺在桌面上了。

这哪是养龙虾啊,这分明是雇了个7×24小时待命的数字同事。

二、WorkBuddy不是聊天框,是带脑子的“AI同事”

很多人以为WorkBuddy就是个装在电脑里的ChatGPT窗口,那理解就片面了。它骨子里是个AI原生桌面Agent,基于腾讯CodeBuddy同一套架构搭建。简单说,它不光能听懂人话,还能自己拆解任务、规划步骤、操作本地文件,最后交付一个可验收的结果。

举个例子:你跟它说“整理一下上周的客户反馈,把高频问题摘出来,做成思维导图”。它不会只给你回一段文字分析,而是会真的打开你的Excel文件,读取内容,归类统计,调用绘图工具生成导图,最后把文件保存在指定路径。整个过程在你本地电脑完成,数据不用上传云端,相当于一个懂逻辑的实习生坐在你的工位上。

目前WorkBuddy国内版支持无缝切换Hunyuan、DeepSeek、GLM、Kimi、MiniMax等主流大模型,还自带20多种Skills技能包,支持MCP协议扩展。想做海报生成、自动化报表、邮件群发?零代码就能搭 workflow。

三、企业微信WebSocket长连接:手机遥控电脑的“隐形数据线”

要实现手机远程指挥电脑,核心技术在于企业微信的WebSocket长连接。这可不是简单的HTTP接口轮询,而是一条双向实时通信的“高速公路”。

根据企业微信开发者中心文档,智能机器人长连接的接入流程是这样的:客户端先向 wss://openws.work.weixin.qq.com 发起WebSocket握手,连接建立后,发送aibot_subscribe订阅请求,携带BotID和Secret完成身份校验。一旦订阅成功,这条连接就保持常开状态,企业微信服务器会实时推送消息到客户端,客户端也能即时响应。

对WorkBuddy来说,它扮演了客户端的角色。当你在手机上给企业微信机器人发消息时,消息通过企业微信服务器→WebSocket长连接→WorkBuddy本地端,WorkBuddy解析指令后调用本地AI模型和Skills能力执行任务,完成后还能把结果文件推回企业微信。

整个过程的延迟通常在毫秒级,比传统的回调接口快得多。而且WorkBuddy最新版支持断网自动重连,不用手动配置IP白名单,对企业内网环境特别友好。

四、实战配置:1分钟打通企业微信“遥控”

好了,聊了半天原理,咱们动手搭一个。以下步骤基于2026年3月发布的WorkBuddy最新版实测:

4.1 下载与基础配置

先去官网 https://www.codebuddy.cn/work/ 下载对应系统的安装包(Windows版大约300MB)。安装完成后首次启动需要扫码登录腾讯云CodeBuddy账号,新用户会自动获得5000 Credits的试用额度。

登录后点击右上角头像→Claw Settings(注意不是直接点Language),把界面切换成中文。Claw就是WorkBuddy的“遥控器”功能模块,专门负责对接各类通讯工具。

4.2 创建企业微信机器人

接下来需要有个“信使”在企业微信和WorkBuddy之间传话。登录企业微信管理后台,进入应用管理→创建应用,上传个头像,填写应用名称(比如“我的AI同事”),可见范围选自己或整个部门。

创建完成后,在应用详情页找到凭证与基础信息,记下AgentId和Secret。然后进入权限管理,给机器人开通必要的权限,比如chat_message(收发消息)、media_upload(上传文件)等。

4.3 开启WebSocket长连接

在企业微信管理后台的智能机器人配置页,开启长连接模式。系统会生成专属的BotID和Secret,这两个值就是后面订阅WebSocket用的身份凭证。

回到WorkBuddy的Claw设置页,选择企业微信通道,把刚才的BotID和Secret填进去,点击测试连接。如果看到“WebSocket连接成功”的提示,说明你的手机和电脑已经通过这条“隐形数据线”连上了。

整个配置过程顺利的话,确实1分钟就能搞定。

五、C#实战:自己撸一个企业微信WebSocket客户端

有追求的小伙伴可能会想:能不能不用WorkBuddy自带的客户端,自己用C#写一个类似的WebSocket控制器?当然可以。企业微信的WebSocket接口是开放的,只要拿到凭证,任何语言都能接入。

以下是一个基于 .NET 9 的极简示例,展示如何建立长连接并订阅消息:

usingSystem;usingSystem.Net.WebSockets;usingSystem.Text;usingSystem.Text.Json;usingSystem.Threading;usingSystem.Threading.Tasks;publicclassWeComAIClient{privatereadonlystring _wsUrl ="wss://openws.work.weixin.qq.com";privatereadonlystring _botId;privatereadonlystring _secret;privateClientWebSocket _ws;publicWeComAIClient(string botId,string secret){ _botId = botId; _secret = secret;}publicasyncTaskConnectAsync(){ _ws =newClientWebSocket();await _ws.ConnectAsync(newUri(_wsUrl), CancellationToken.None);// 发送订阅请求var subscribeMsg =new{ cmd ="aibot_subscribe", headers =new{ req_id = Guid.NewGuid().ToString()}, body =new{ bot_id = _botId, secret = _secret }};var json = JsonSerializer.Serialize(subscribeMsg);var bytes = Encoding.UTF8.GetBytes(json);await _ws.SendAsync(newArraySegment<byte>(bytes), WebSocketMessageType.Text,true, CancellationToken.None);// 启动接收循环 _ =ReceiveLoopAsync();}privateasyncTaskReceiveLoopAsync(){var buffer =newbyte[4096];while(_ws.State == WebSocketState.Open){var result =await _ws.ReceiveAsync(newArraySegment<byte>(buffer), CancellationToken.None);if(result.MessageType == WebSocketMessageType.Text){var msg = Encoding.UTF8.GetString(buffer,0, result.Count); Console.WriteLine($"收到指令: {msg}");// 这里可以解析msg,调用本地AI或WorkBuddy的Open API}}}publicasyncTaskSendResponseAsync(string userId,string content){// 构造回复消息(需按企业微信格式)var response =new{ touser = userId, msgtype ="text", text =new{ content = content }};// 实际发送需要通过企业微信的主动消息接口,配合access_token使用}}

这段代码展示了核心逻辑:建立WSS连接→发送aibot_subscribe→进入接收循环。实际生产环境还需要处理异常重连、心跳保活、消息加解密等细节,但骨架就是这样。

六、高阶玩法:让AI同事“卷”起来

基础遥控只是开胃菜,WorkBuddy的真正威力在于自动化编排。

6.1 定时任务:到点自动打工

在WorkBuddy的自动化标签页,可以设置Cron表达式任务。比如配置“每周五17:00”触发,任务内容“读取本周会议纪要→生成待办清单→导出PDF→推送到企业微信”。到了点,哪怕你早就下班了,这位数字同事还是会准时把周报发给你。

6.2 多Agent并行:几个龙虾一起炒

WorkBuddy支持多窗口、多Agent并行工作。你可以同时开三个任务窗口:一个负责爬取竞品数据,一个负责写分析文案,一个负责生成配图。复杂任务拆解后同步开工,效率直接拉满。

6.3 Skills技能包:零代码扩展能力

WorkBuddy兼容OpenClaw的Skills体系,官方市场提供了海报生成、发票识别、PPT自动化等20多种现成技能。如果这还不够,可以用MCP(Model Context Protocol)协议自己写插件。比如接入公司内部的ERP系统,让AI同事能直接查库存、下订单。

七、写在最后:打工人的“外挂”时代

腾讯这次推出WorkBuddy,本质上是在降低AI Agent的使用门槛。以前玩OpenClaw需要懂命令行、会配环境,现在小白用户下载个安装包就能体验“养龙虾”的乐趣。对企业来说,这也是个低成本试水的入口——不用改造现有IT架构,通过企业微信WebSocket就能让AI接管重复性工作。

当然,这玩意儿目前还不能替代人类的判断力,重要文件处理前最好还是人工复核一遍。但把它当成一个不知疲倦的初级助手,帮你处理报表、整理资料、定时提醒,绝对绰绰有余。

下次再加班,不妨试着对企业微信喊一嗓子:“龙虾,把这份数据透视表做了。”然后潇洒地关上电脑回家。毕竟,有AI同事在,为什么还要自己熬夜呢?

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

faster-whisper极速安装指南:3分钟搞定AI语音转文字

还在为语音转文字的慢速度而烦恼吗?faster-whisper来拯救你!这款基于OpenAI Whisper模型的优化版本,通过CTranslate2推理引擎实现了4倍速的语音识别,同时保持相同的准确率。无论你是开发者还是技术爱好者,这篇指南将带你轻松上手这个强大的AI语音识别工具。 【免费下载链接】faster-whisper 项目地址: https://gitcode.com/gh_mirrors/fas/faster-whisper 🚀 一分钟快速安装 安装faster-whisper就像呼吸一样简单!只需要一个命令: pip install faster-whisper 是的,就这么简单!Python包管理器会自动处理所有依赖关系,让你在几秒钟内就能开始使用这个强大的语音转文字工具。 VAD语音活动检测模块 - 智能过滤静音片段 🛠️ 硬件环境准备 基础要求 * Python 3.8或更高版本 * 支持CUDA的NVIDIA GPU(推荐)或普通CPU GPU用户专属配置 如果你拥有NVIDIA显卡,为了获得最佳性能,需要安装以下组件:

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

LLM-申请 Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例) 一、请求访问Llama模型 ⭐️ 随便进入想要访问的Llama模型,这里展示的是Meta-Llama-3-8B-Instruct。 1、 点击链接,申请访问Llama模型 2、 填写相关申请信息,注意如下:👇🏻(1)、国家最好选「美国」,然后填 「美国的大学」;(2)、操作这一步时,节点需要是对应国家的节点(若是美国,那么节点也要是美国)。 3、 提交成功后,就可开始申请Llama模型的Hugging Face 访问令牌啦~ 二、申请Llama模型的Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)⭐️ 1、判断是否需要申请 访问Meta-Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库。 假若你看见“You need to agree to share your

Ollama 底层的 llama.cpp 和 GGUF

GGUF = 大模型权重的「通用压缩格式」(类似视频的 MP4,适配所有播放器) llama.cpp = 跑 GGUF 格式模型的「轻量级推理引擎」(类似视频播放器,能在低配电脑上流畅播 MP4) 两者配合:GGUF 让模型体积变小、适配性强,llama.cpp 让模型能在 CPU / 低配 GPU 上快速跑 这也是 Ollama 能做到 “一键本地运行” 的底层原因 GGUF 详解:大模型的 “通用压缩包” 核心定义 GGUF(Generic GGML Format)是 GGML 格式的升级版,是专门为大模型权重设计的二进制存储格式 核心目标是「通用、高效、压缩」 GGML 是什么?

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

文章目录 * 一、前言 * 1.1 模型开源意义与背景 * 1.2 文心一言大模型简介 * 1.3 测评目标与思路 * 二、文心一言大模型 * 2.1 文心一言开源概况 * 2.2 文心一言大模型技术综述 * 三、文心一言大模型深度解析 * 3.1 开源策略与生态影响 * 3.1.1 开源时间与版本介绍 * 3.2 模型特性与优势 * 四、部署实战:从 GitCode下载ERNIE-4.5-0.3B 模型到本地可交互服务 * 4.1 环境准备与部署方式 * 4.2 下载与安装步骤 * 4.3 调用示例与接口说明 * 编写部署测试脚本 * 五、