微信终于官宣!OpenClaw(龙虾)正式接入,你的微信里多了一个AI管家

微信终于官宣!OpenClaw(龙虾)正式接入,你的微信里多了一个AI管家

就在昨天,微信放出了一个让科技圈沸腾的消息:微信正式推出「ClawBot」插件,支持接入开源AI智能体OpenClaw(俗称“龙虾”)

这意味着,你再也不需要冒着封号的风险使用非官方插件,现在可以直接在微信聊天界面里召唤你的“龙虾”替你干活了。

什么是“龙虾”?

首先科普一下,为什么大家管OpenClaw叫“龙虾”?因为它的图标是红色的,形似龙虾,所以被网友们亲切地称为“龙虾”。OpenClaw是一款实现“认知、执行、记忆”闭环的开源AI框架,简单来说,它能让AI真正“长出手脚”,自主执行文件管理、邮件收发、数据处理等复杂任务

而微信这次推出的ClawBot插件,就是帮你用微信连接个人龙虾的聊天入口——相当于你现在能跟你的“虾”成为微信好友了。

如何接入?

想要在微信里玩转龙虾,操作非常简单,只需两步:

第一步:启用微信ClawBot插件

  • 将微信更新到 v8.0.70或更高版本(目前iOS已发布正式版,安卓用户还需稍等)
  • 进入「我 → 设置 → 插件」,找到“微信ClawBot”并启用(插件正在逐步放量中,部分用户可能还需等待)

第二步:绑定OpenClaw账号

  • 在你已经安装OpenClaw的设备上,执行以下命令安装NPM插件:
npx -y @tencent-weixin/openclaw-weixin-cli@latest install
  • 插件安装完成后会自动弹出二维码,使用微信扫码完成授权连接即可

如果你使用的是腾讯云Lighthouse、WorkBuddy或QClaw等产品,也都有对应的扫码直连通道。

有哪些限制?官方划了重点

虽然微信这次罕见地为非腾讯项目开发了官方插件,但权限上依然非常谨慎。以下是你需要知道的几个关键限制:

1. 24小时消息保活机制
微信允许ClawBot接收24小时以内下发的消息。也就是说,如果用户超过24小时没有主动给ClawBot发消息,OpenClaw下发的消息会被自动丢弃。如果你配置了定时任务,记得至少每24小时主动发一条消息“保活”。

2. 无法加入群聊
龙虾以独立账号存在,无法加入任何微信群聊。你需要手动复制群消息供其分析,它也无法自动总结群内容、发送提醒。微信ClawBot仅支持个人单聊,其他用户也无法添加你的ClawBot。

3. 权限隔离
龙虾无权访问你的联系人列表、历史聊天记录,也不能主动向其他联系人发送消息,与微信社交关系网络完全隔离。微信官方强调,ClawBot插件仅作为消息通道,不会自动化操作你的微信

4. 功能限制
目前微信插件尚未支持可选快捷命令,像/model命令可能无法正常浏览模型提供商列表。另外,微信不支持图文混合输入,用户需先明确指令再发送媒体内容。

腾讯的“龙虾”野心

腾讯在“养龙虾”这件事上可谓动作迅速。根据官方信息,腾讯已经组建了一支“龙虾特工队”,包括:

  • 云端虾:腾讯轻量云Lighthouse
  • 自研虾:WorkBuddy
  • 本地虾:QClaw
  • 企业虾:腾讯云ADPxClaw
  • 云桌面虾:腾讯云桌面

腾讯公关总监张军在微博上发文称:“微信当年所努力的,就是成为一个连接人、连接设备、连接服务的工具。这个理念依然有效。这个连接,可以方便每个人更好地管理自己的龙虾。”

安全性提醒

值得注意的是,OpenClaw虽然火爆,但也存在安全风险。3月10日,国家互联网应急中心曾发布风险提示,指出OpenClaw默认安全配置“极为脆弱”,攻击者可轻易获取系统完全控制权。全球已有超过27万个OpenClaw实例因配置不当暴露在公网,部分用户遭遇API密钥被盗产生万元账单等问题。

因此,如果你打算“养虾”,请务必做好安全配置,不要将服务直接暴露在公网

写在最后

微信推出ClawBot插件,是微信首次正式加入“龙虾大战”,也是腾讯在AI智能体领域的又一次战略性落地。虽然目前功能还比较基础,但这意味着我们离“在微信里拥有一个私人AI助理”的愿景又近了一步。

你的微信能玩龙虾了吗?快去「我-设置-插件」看看吧!


参考资料:
1. 蓝点网:微信推出ClawBot插件支持OpenClaw接入(2026-03-22)
2. DoNews:微信正式接入龙虾AI(2026-03-22)
3. IT之家:微信iOS 8.0.70正式版更新(2026-03-22)
4. 智东西:微信掀桌!2步接入龙虾(2026-03-22)
7. 橙新聞:騰訊推出微信ClawBot插件(2026-03-22)
9. 澎湃新闻:微信推出官方龙虾插件(2026-03-22)

Read more

LLaMA-Factory微调(LoRA)Qwen2.5实战

为什么要微调(LoRA方法)Qwen2.5通用大模型?         微调后可让Qwen2.5在某些领域更专业化,例如使Qwen2.5更拟人、更温柔、语调生动。 LLaMA-Factory概述         LLaMA-Factory 是目前公认最好用、门槛最低的开源微调工具。它把复杂的代码封装成了可视化的界面,让你像填表一样就能训练模型。。它的核心目标是让普通开发者和研究者也能在消费级显卡(如 4090)上轻松微调千亿参数的大模型。         它的核心优势: 1. 零代码 WebUI:它提供了一个网页界面(如上图),你只需要在下拉菜单里选模型、选数据集、填参数,点“开始”就行,不用写一行 Python 代码。 2. 全能支持: * 模型:支持几乎所有主流模型(Llama 3, Qwen, Baichuan, ChatGLM, Mistral, Gemma, DeepSeek 等)。 * 方法:支持

拥抱开源生态:Llama-Factory统一接口简化多模型管理

拥抱开源生态:Llama-Factory统一接口简化多模型管理 在大语言模型(LLM)迅速渗透各行各业的今天,从智能客服到代码生成、从知识问答到个性化推荐,定制化模型已成为提升业务竞争力的关键手段。然而,现实却并不总是理想——尽管 Hugging Face 上已有成千上万的开源模型,真正能“拿来即用”的少之又少。每个主流架构——LLaMA、Qwen、ChatGLM、Baichuan——都有各自的加载方式、Tokenizer 规则和微调习惯,开发者往往需要为不同模型重写训练脚本、反复调试环境依赖,甚至因为显存不足而被迫放弃更大规模的尝试。 这正是 Llama-Factory 的价值所在。它不只是一款工具,更像是一个“翻译器”与“加速器”的结合体:将五花八门的大模型纳入同一套操作体系,让开发者无需深陷底层细节,就能高效完成从数据准备到部署上线的全流程任务。 统一接口如何打破模型壁垒? 想象一下这样的场景:你正在评估 Qwen-7B 和 LLaMA-3-8B 哪个更适合你的企业知识库问答系统。传统做法是分别克隆两个项目的代码仓库,阅读文档,配置不同的依赖项,

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

🌹欢迎来到《小5讲堂》🌹 🌹这是《文心智能体》系列文章,每篇文章将以博主理解的角度展开讲解。🌹 🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹 目录 * 前言 * 智能体信息 * 名称 * 简介 * 人设 * 开场白 * 工作流 * 消息节点 * 文本处理节点 * 插件节点 * 图片消息节点 * 输出效果 * 小技巧 * 一、结构化框架设计 * 1. **角色定位+任务拆解** * 2. **四要素公式法** * 二、多轮对话优化 * 1. **分步骤引导** * 2. **示例参考法** * 三、细节强化技巧 * 1. **输出格式标准化** * 2. **专业术语与风格** * 四、避免常见误区 * 1. **模糊需求导致输出偏差** * 2. **过度复杂导致理解困难** * 相关文章

从Prompt到成片仅需2.3秒,Seedance 2.0如何重构AIGC工作流?——头部客户实测ROI提升340%,但90%团队尚未启用映射热更新模式

第一章:Seedance 2.0语义理解与视频生成映射的技术本质 Seedance 2.0 的核心突破在于将自然语言语义空间与高保真视频表征空间建立可微、对齐且可泛化的双向映射。该映射并非简单地将文本嵌入向量输入扩散模型,而是通过分层语义解耦机制,在动词时态、空间关系、主体属性、镜头运动四个正交维度上构建结构化语义图谱,并驱动时空潜在变量的协同演化。 语义解析的层级化建模 系统首先调用轻量级语义角色标注(SRL)模块提取谓词-论元结构,继而通过多头跨模态注意力对齐视觉先验知识库(如 Kinetics-700 动作本体与 COCO-Spatial 关系图谱)。该过程确保“她缓缓旋转并伸展手臂”被分解为: * 主语:“她” → 对应人体姿态关键点拓扑约束 * 动作序列:“旋转”(轴向角速度)、“伸展”(关节角度增量)→ 驱动运动轨迹生成器 * 副词修饰:“缓缓” → 映射至帧间光流平滑度损失权重 视频生成的隐空间对齐策略 Seedance 2.0 引入语义-视觉对比学习(SVCL)损失,强制文本编码器输出与视频潜在码(来自