QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

欢迎来到我的博客,代码的世界里,每一行都是一个故事

🎏:你只管努力,剩下的交给时间

🏠 :小破站

QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

如果你最近在关注 AI 工具圈,大概率听说过一个叫 OpenClaw 的东西,中文社区管它叫「龙虾」。这个开源项目在 GitHub 上拿了 30 万 Star,增速之快让整个行业侧目。就在上周,CNBC 专门发文分析它的爆发式增长,标题起得很直接——「OpenClaw 迎来自己的 ChatGPT 时刻」。与此同时,腾讯、字节、阿里、小米已经相继跟进,开始基于它做自己的 AI 助手产品。

但对普通用户来说,OpenClaw 的上手门槛不低——你得会用命令行,得懂 Node.js,得自己去配 API 密钥。这道槛挡住了相当一部分想用的人。

QClaw 解决的就是这个问题。它是 OpenClaw 的桌面端封装版,把所有安装配置流程都藏进去,开箱即用,还把微信直联做成了核心功能。我从安装到上手折腾了一周,把整个过程记录下来,给同样想试试但不知道从哪里开始的人参考。


先说清楚:OpenClaw 是什么,龙虾又是怎么来的

理解 QClaw 之前,得先理解 OpenClaw。

OpenClaw 本质上是一个跑在本地的 AI 代理框架。它不是聊天界面,而是一个 AI 引擎——可以连接微信、钉钉、飞书、WhatsApp 等 20 多个聊天平台,可以安装 Skills 插件扩展能力,可以接入任意兼容 OpenAI 格式的大模型,可以在你的电脑上直接操控文件、浏览器、执行脚本。

它为什么叫「龙虾」?项目历史上经历过几次改名,从 Clawd 到 Moltbot 再到 OpenClaw,像龙虾蜕壳一样,每次都脱胎换骨。这个绰号在中文社区里传开了,后来就成了约定俗成的叫法。

QClaw 是在 OpenClaw 基础上做的桌面应用,支持 macOS(Apple 芯片和 Intel 芯片),把安装、配置、启动这些流程全部包装好,不需要懂命令行,下载安装完直接用。

QClaw 下载页面

第一次打开:它先问你是谁

安装完打开,没有引导页,没有功能介绍 PPT,直接进入对话界面。然后它开口了:

看起来这是我们第一次对话。我刚刚上线,身份还是空白的——连名字都还没定下来。
你是谁?我又该是谁?咱们来聊聊,把这些定下来。

它会问你几个问题:你叫什么,希望 AI 叫什么名字,喜欢什么风格——正式的、随意的、有点嘴贱的、还是温暖贴心的。

首次启动初始化

这个初始化流程看起来很轻,背后是认真的。你们协商好的名字、说话风格、对彼此的称呼,会写入工作空间的配置文件,下次启动还在,不会因为重启清空。这是持久化身份,不是一次性扮演。

手机端也是同一套逻辑。在微信里走完初始化,AI 助手就和你的微信账号绑定了,之后直接发消息就能调用,不需要打开任何 App。

手机端微信初始化

多数 AI 工具的逻辑是先展示功能、再让你上手。QClaw 把顺序反过来——先建立关系,再谈干活。用了一段时间之后才明白这个顺序其实是对的。一个你自己命了名、定了性格的 AI,你对它的信任感和使用频率,跟用一个无名工具是完全不同的。


微信直联:手机变成了 AI 的遥控器

这是 QClaw 和大多数 AI 桌面工具最不一样的地方。

我们在手机上花的时间,远比在电脑前多。但手机上的 AI 工具基本都是孤岛——你在某个 App 里问完,结果就留在那个 App,和你的文件、工作流程完全割裂。要用 AI 帮你处理点事情,得切 App、粘贴内容、等结果、再切回来,流程摩擦很高。

QClaw 整体界面

QClaw 的做法是把微信变成控制入口。在路上发一条微信,本地的 AI 开始处理,完成后直接把结果发回微信。你不需要打开电脑,不需要切 App。等地铁的时候发出去,回到办公室任务已经有了。

b9a32c8adc566f010dc72ae2b7370cac

这不是「AI 接入微信聊天」,而是「微信成了控制本地 AI 的遥控器」。用过一次就知道这两句话的差距有多大。

而且不只是微信。QClaw 的远控通道支持一整排平台:微信、企业微信、QQ、飞书、钉钉、微信客服号,扫码或填入 App ID 和 Secret 即可绑定。团队用企业微信的、公司统一用钉钉的、个人习惯飞书的,都能直接在各自熟悉的工具里和 QClaw 对话,不需要再装别的东西。

远控通道设置页面

接入自定义模型:你的 API 你做主

QClaw 内置了国产大模型,默认状态下直接可用。但它同时完全开放了模型接入口,支持任何兼容 OpenAI 格式的第三方模型(稍微懂点原理,默认UI界面不支持配置,只有部分coding plan)。

接入方式简单得出乎意料——直接用中文告诉它就行:

帮我接入一个模型,格式符合 OpenAI,地址是 xxx,密钥是 sk-xxx,模型用 gpt-4.5。
告诉它接入新模型

QClaw 会自动写入配置文件、重启 Gateway,然后告诉你接入完成、默认模型已切换。之后的对话直接跑新模型,不需要你动任何配置文件。

切换模型后

这个能力对几类人特别关键:公司有自己私有部署模型不想数据出去的;已经买了某家 API 不想重复付费的;想对比不同模型效果的;需要接入国产模型的。QClaw 不绑你用某个特定模型,而是帮你把任何模型用顺手。

如果你习惯直接改配置文件,也可以绕过对话界面,直接编辑 ~/.qclaw/openclaw.json。QClaw 的所有模型配置都存在这里——每个 provider 的 baseUrl、apiKey、模型列表,甚至 reasoning 开关都明文写在这个 JSON 里。改完保存,重启生效。目录里还有几个 .bak 备份文件,QClaw 每次改配置前都会自动备份一份,改坏了直接还原就行。

openclaw-json内容

Skills 插件:能力边界一直在扩

OpenClaw 生态有一个叫 ClawHub 的技能市场,已经有 100 多个 Skills 可以安装,覆盖网页搜索、文件处理、浏览器自动化、GitHub 管理、Notion 同步、代码审查等各类场景。

在 QClaw 里安装 Skill 不需要任何技术操作,界面里直接装。装完之后 AI 自动识别,在合适的时机调用对应工具。

已安装的 Skills 列表

用下来的感受是,Skills 的数量积累到一定程度之后,AI 的能力会有一个质的变化。它不再只是回答问题,而是真的能替你跑任务——搜索 + 整理 + 写入文件 + 推送到微信,一条链路打通。Skills 安装得越多,它能处理的任务范围就越广,这是一个正向积累的过程。


角色系统:不是换个语气,是换个工作模式

很多 AI 工具都有「人设切换」,让它扮演严肃分析师或者温柔助手。这类功能大多数情况下流于形式,换的是说话腔调,工作逻辑没变。

QClaw 的角色系统解决的是另一个问题:不同项目、不同任务类型,需要不同的工作逻辑。

举个例子,你可以给某个项目绑定一个「项目军师」角色,职责是梳理需求、拆解路线、写方案、做决策建议、控节奏。绑定之后,AI 在这个项目的上下文里就始终以这套方式工作,不会跑偏到别的模式。

同理,你可以设定专门处理文件的角色、专门审代码的角色、专门写方案的角色。同一个 AI,绑定不同角色之后,输出的质量和针对性是有实质差异的。

这比语气切换实用得多。需要的不是一个会说软话的 AI,而是一个在特定上下文里能持续发力的工作搭档。


定时任务:让 AI 主动替你干活

大多数 AI 工具是被动的——你问,它答;你不问,什么都不发生。QClaw 的定时任务打破了这个模式。

用自然语言直接创建任务,比如:

  • 「设置每日 8:00 自动抓取今日 AI 科技热点,整理成简报发给我」
  • 「提醒我喝水,每日 10:00 执行,从今天开始持续生效」
  • 「每天推送当天最新 10 条科技新闻,每条总结要精简」
定时任务界面

这不是日历提醒,是真正的自动化任务。任务触发时,AI 自动联网搜索、整理内容,然后推送到你的微信。你开会的时候它在跑,你睡觉的时候它在跑,你不在电脑旁的时候它还在跑。

「灵感广场」里还有一批现成的任务模板,比如热点资讯自动汇总、懒人出游规划等,不用自己想任务怎么描述,直接套用就行。

灵感广场模板

创建一个每天早上 8 点推送 AI 科技简报的任务,只需要说一句中文。QClaw 会自动生成 cron 表达式 0 8 * * *,时区设定为 Asia/Shanghai,会话模式设为 isolated(隔离运行,不污染主对话),全程不需要你手动填任何参数。

创建定时任务

任务配置文件的实际内容长这样——job id、名称、cron 表达式、时区、会话模式,都自动生成好了。

cron job 配置

整套定时任务系统跑在本地,不依赖云端服务器,任务数据不上传,执行结果也不经过第三方。


它是怎么「记住你」的

这是整个产品里我觉得设计最用心的部分。

QClaw 的工作空间里有一套结构化的 Markdown 文件系统,AI 用这套文件来维持跨对话的记忆:

  • AGENTS.md:总工作守则,规定每次开工先读什么、什么能直接做、什么要先问你、记忆该写到哪里
  • SOUL.md:性格和气质设定,定义说话风格、观点表达方式、隐私边界
  • IDENTITY.md:名字和人设,初始化时你们协商的内容
  • USER.md:你的档案,记录偏好、习惯、长期上下文
  • MEMORY.md:长期记忆,从日常对话中提炼出值得长期保留的内容
  • memory/YYYY-MM-DD.md:每日记忆日志,记录当天做了什么、遇到什么问题、做了哪些决定
记忆文件系统原理
记忆文件系统续

QClaw 自己把这套系统描述为「AI 助手的内脏系统」:SOUL.md 是性格,IDENTITY.md 是名字和人设,USER.md 是你的档案,MEMORY.md 是它的长期记忆。

这个比喻很准。普通 AI 工具每次对话都是从零开始,没有积累。QClaw 记得你上次说不喜欢废话,记得你正在做的项目,记得你的工作节奏和决策习惯。用的时间越长,它越懂你——这才是「个人 AI 助手」这个词应该有的含义。


本地跑意味着什么

QClaw 的「本地部署」不只是一个技术参数,它在实际使用中有两层含义。

第一层是数据不出门。你的文件、对话记录、记忆文件全部留在自己电脑上,不上传到任何服务器。处理敏感商业信息、内部文档的人,这是硬需求。

第二层是真正的系统控制权。因为运行在本地,QClaw 可以直接操作你的文件系统、调用本地应用、执行脚本,而不是只能在沙盒对话框里回答问题。这让它从「智能问答工具」变成了「能干活的本地 AI 员工」。


适合什么人用

以下几类人会觉得 QClaw 非常顺手:

需要长期用 AI 辅助工作的人。 不是偶尔问个问题,而是把 AI 深度嵌入日常流程。这类人对「每次都要重新解释背景」这个问题深有体会,QClaw 的持久记忆直接解决了这个痛点。

经常移动办公的人。 在手机微信上触发本地 AI 任务,这个能力对经常出差、开会、不在电脑前的人有实际价值。

有数据安全顾虑的人。 本地部署加上自定义模型接入,数据流向完全可控。

想自动化重复性信息工作的人。 定时资讯摘要、自动整理内容、定时提醒——以前要靠 RPA 工具或自己写脚本,现在说一句中文就能搞定。


最后

OpenClaw 的爆发让整个 AI 代理方向的逻辑变得更清晰:模型本身在商品化,谁能把模型的能力真正接入你的日常工作流,谁才有长期价值。QClaw 选择的路径是——住在你电脑里,认识你,记住你,主动替你干活,通过你最常用的 App 和你交互。

这条路不算新鲜,但把每个环节都做扎实的产品,现在还不多(其实也不少了)。

龙虾的生态还在快速扩张,Skills 在增加,平台接入在增加,记忆系统在迭代。现在上手,赶上的是一个还在高速成长的早期阶段——对于愿意折腾的人来说,这个时间点进来挺合适的。

Read more

【花雕学编程】Arduino BLDC 驱动方案 —— MimiClaw(迷你小龙虾)+ ESP32 嵌入式组合机器人

【花雕学编程】Arduino BLDC 驱动方案 —— MimiClaw(迷你小龙虾)+ ESP32 嵌入式组合机器人

这是一套面向无刷电机(BLDC)、高度集成、可快速开发、支持本地智能的机器人开发组合。它将 ESP32 高性能主控 + MimiClaw 智能控制框架 + Arduino 生态易用性 + BLDC 无刷电机驱动 融为一体,是目前创客、实验室、竞赛、小型机器人领域最实用、最稳定、性价比极高的嵌入式机器人方案。 一、核心定义(专业版一句话解释) MimiClaw(迷你小龙虾)+ ESP32是一套基于 Arduino 开发环境、面向 BLDC 无刷电机控制、支持本地智能决策的嵌入式机器人控制系统。它以 ESP32 为硬件核心,以 MimiClaw 为控制大脑,实现无刷电机驱动、传感器融合、自主决策、无线通信、多关节机器人控制一体化。 简单说:ESP32 = 身体与算力MimiClaw = 思考与逻辑BLDC 无刷驱动 = 动力系统Arduino

FPGA小白学习日志一:LED的点亮

1.工程准备 首先建立一个名为led的工程文件夹,文件夹下包含了doc、quartus_prj、rtl、sim四个子文件夹: 那么我们来分析各个文件夹包含了什么: doc:该文件夹主要包含了文档资料、数据手册、Visio波形等,相当于档案库; quartus_prj:该文件夹主要包括了使用Quartus II软件新建的工程,相当于操作台; rtl:该文件夹主要放置生成硬件电路的代码,相当于原材料; Sim:该文件夹放置对生成硬件电路代码的仿真文件,相当于质检室;     这四个文件夹各自完成不同的分工,但是它们之间有什么联系呢?答案是:他们之间通过路径关联和文件引用,形成一个完美的FPGA开发闭环。quartus_prj作为工程中枢,向上访问doc读取说明,向下访问rtl获取硬件代码,向外访问sim获取仿真脚本;sim向上访问rtl在逻辑上验证硬件代码的正确性。 2.设计过程    无论我们使用FPGA做什么类型的项目时,我们都要参照一个具体的流程,这里就介绍我自己的开发流程: 1.看手册和原理图,搞清楚我们需要实现什么功能,就像做饭时我们需要看食谱,要知道自己吃什么。

ManiSkill机器人模拟环境:从零开始的完整安装与实战指南

ManiSkill机器人模拟环境:从零开始的完整安装与实战指南 【免费下载链接】ManiSkill 项目地址: https://gitcode.com/GitHub_Trending/ma/ManiSkill 在机器人学习领域,拥有一个功能强大且易于使用的模拟环境至关重要。ManiSkill作为业界领先的机器人操作模拟平台,为研究人员和开发者提供了丰富的任务场景和硬件支持。本文将带您深入了解如何在不同系统上快速安装和配置ManiSkill,并解决实际使用中可能遇到的各种问题。 为什么选择ManiSkill? 在深入安装细节之前,让我们先了解ManiSkill的核心优势: * 多任务场景覆盖:从简单的物体抓取到复杂的家居环境操作 * 多样化机器人支持:超过30种不同类型的机器人硬件 * 物理模拟精度:基于SAPIEN引擎的高质量物理仿真 * GPU加速支持:大幅提升训练和推理效率 环境准备:系统要求详解 在开始安装前,请确保您的系统满足以下基本要求: 系统类型最低配置推荐配置Ubuntu 18.04+4GB RAM, 2GB GPU16GB RAM, 8G

【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

摘要 本文对开源项目 TeleGrip 的架构与源码进行了剖析。该系统基于 LeRobot 框架,通过 VR 端位姿采集—WebSocket 通信—控制循环解算—机械臂执行 的流程,实现虚拟与物理空间的实时映射。前端采用 A-Frame 进行手柄姿态获取与可视化,后端以 Python 实现命令队列、插值与逆运动学计算,并同步驱动 PyBullet 仿真与 SO100 实体机械臂。该框架具有低延迟、高扩展性等特点,可用于 VR 遥操作、具身智能及多模态交互研究。 前言:项目背景与价值 想象一下你戴上 VR 头显,用手柄抓取虚拟物体,现实中的机械臂同步完成同样的动作——这就是 TeleGrip 的核心。 本文将带你从源码角度理解它是如何实现“虚拟到现实”的信号映射与控制闭环的。 GitHub链接:https://github.