QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

欢迎来到我的博客,代码的世界里,每一行都是一个故事

🎏:你只管努力,剩下的交给时间

🏠 :小破站

QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

如果你最近在关注 AI 工具圈,大概率听说过一个叫 OpenClaw 的东西,中文社区管它叫「龙虾」。这个开源项目在 GitHub 上拿了 30 万 Star,增速之快让整个行业侧目。就在上周,CNBC 专门发文分析它的爆发式增长,标题起得很直接——「OpenClaw 迎来自己的 ChatGPT 时刻」。与此同时,腾讯、字节、阿里、小米已经相继跟进,开始基于它做自己的 AI 助手产品。

但对普通用户来说,OpenClaw 的上手门槛不低——你得会用命令行,得懂 Node.js,得自己去配 API 密钥。这道槛挡住了相当一部分想用的人。

QClaw 解决的就是这个问题。它是 OpenClaw 的桌面端封装版,把所有安装配置流程都藏进去,开箱即用,还把微信直联做成了核心功能。我从安装到上手折腾了一周,把整个过程记录下来,给同样想试试但不知道从哪里开始的人参考。


先说清楚:OpenClaw 是什么,龙虾又是怎么来的

理解 QClaw 之前,得先理解 OpenClaw。

OpenClaw 本质上是一个跑在本地的 AI 代理框架。它不是聊天界面,而是一个 AI 引擎——可以连接微信、钉钉、飞书、WhatsApp 等 20 多个聊天平台,可以安装 Skills 插件扩展能力,可以接入任意兼容 OpenAI 格式的大模型,可以在你的电脑上直接操控文件、浏览器、执行脚本。

它为什么叫「龙虾」?项目历史上经历过几次改名,从 Clawd 到 Moltbot 再到 OpenClaw,像龙虾蜕壳一样,每次都脱胎换骨。这个绰号在中文社区里传开了,后来就成了约定俗成的叫法。

QClaw 是在 OpenClaw 基础上做的桌面应用,支持 macOS(Apple 芯片和 Intel 芯片),把安装、配置、启动这些流程全部包装好,不需要懂命令行,下载安装完直接用。

QClaw 下载页面

第一次打开:它先问你是谁

安装完打开,没有引导页,没有功能介绍 PPT,直接进入对话界面。然后它开口了:

看起来这是我们第一次对话。我刚刚上线,身份还是空白的——连名字都还没定下来。
你是谁?我又该是谁?咱们来聊聊,把这些定下来。

它会问你几个问题:你叫什么,希望 AI 叫什么名字,喜欢什么风格——正式的、随意的、有点嘴贱的、还是温暖贴心的。

首次启动初始化

这个初始化流程看起来很轻,背后是认真的。你们协商好的名字、说话风格、对彼此的称呼,会写入工作空间的配置文件,下次启动还在,不会因为重启清空。这是持久化身份,不是一次性扮演。

手机端也是同一套逻辑。在微信里走完初始化,AI 助手就和你的微信账号绑定了,之后直接发消息就能调用,不需要打开任何 App。

手机端微信初始化

多数 AI 工具的逻辑是先展示功能、再让你上手。QClaw 把顺序反过来——先建立关系,再谈干活。用了一段时间之后才明白这个顺序其实是对的。一个你自己命了名、定了性格的 AI,你对它的信任感和使用频率,跟用一个无名工具是完全不同的。


微信直联:手机变成了 AI 的遥控器

这是 QClaw 和大多数 AI 桌面工具最不一样的地方。

我们在手机上花的时间,远比在电脑前多。但手机上的 AI 工具基本都是孤岛——你在某个 App 里问完,结果就留在那个 App,和你的文件、工作流程完全割裂。要用 AI 帮你处理点事情,得切 App、粘贴内容、等结果、再切回来,流程摩擦很高。

QClaw 整体界面

QClaw 的做法是把微信变成控制入口。在路上发一条微信,本地的 AI 开始处理,完成后直接把结果发回微信。你不需要打开电脑,不需要切 App。等地铁的时候发出去,回到办公室任务已经有了。

b9a32c8adc566f010dc72ae2b7370cac

这不是「AI 接入微信聊天」,而是「微信成了控制本地 AI 的遥控器」。用过一次就知道这两句话的差距有多大。

而且不只是微信。QClaw 的远控通道支持一整排平台:微信、企业微信、QQ、飞书、钉钉、微信客服号,扫码或填入 App ID 和 Secret 即可绑定。团队用企业微信的、公司统一用钉钉的、个人习惯飞书的,都能直接在各自熟悉的工具里和 QClaw 对话,不需要再装别的东西。

远控通道设置页面

接入自定义模型:你的 API 你做主

QClaw 内置了国产大模型,默认状态下直接可用。但它同时完全开放了模型接入口,支持任何兼容 OpenAI 格式的第三方模型(稍微懂点原理,默认UI界面不支持配置,只有部分coding plan)。

接入方式简单得出乎意料——直接用中文告诉它就行:

帮我接入一个模型,格式符合 OpenAI,地址是 xxx,密钥是 sk-xxx,模型用 gpt-4.5。
告诉它接入新模型

QClaw 会自动写入配置文件、重启 Gateway,然后告诉你接入完成、默认模型已切换。之后的对话直接跑新模型,不需要你动任何配置文件。

切换模型后

这个能力对几类人特别关键:公司有自己私有部署模型不想数据出去的;已经买了某家 API 不想重复付费的;想对比不同模型效果的;需要接入国产模型的。QClaw 不绑你用某个特定模型,而是帮你把任何模型用顺手。

如果你习惯直接改配置文件,也可以绕过对话界面,直接编辑 ~/.qclaw/openclaw.json。QClaw 的所有模型配置都存在这里——每个 provider 的 baseUrl、apiKey、模型列表,甚至 reasoning 开关都明文写在这个 JSON 里。改完保存,重启生效。目录里还有几个 .bak 备份文件,QClaw 每次改配置前都会自动备份一份,改坏了直接还原就行。

openclaw-json内容

Skills 插件:能力边界一直在扩

OpenClaw 生态有一个叫 ClawHub 的技能市场,已经有 100 多个 Skills 可以安装,覆盖网页搜索、文件处理、浏览器自动化、GitHub 管理、Notion 同步、代码审查等各类场景。

在 QClaw 里安装 Skill 不需要任何技术操作,界面里直接装。装完之后 AI 自动识别,在合适的时机调用对应工具。

已安装的 Skills 列表

用下来的感受是,Skills 的数量积累到一定程度之后,AI 的能力会有一个质的变化。它不再只是回答问题,而是真的能替你跑任务——搜索 + 整理 + 写入文件 + 推送到微信,一条链路打通。Skills 安装得越多,它能处理的任务范围就越广,这是一个正向积累的过程。


角色系统:不是换个语气,是换个工作模式

很多 AI 工具都有「人设切换」,让它扮演严肃分析师或者温柔助手。这类功能大多数情况下流于形式,换的是说话腔调,工作逻辑没变。

QClaw 的角色系统解决的是另一个问题:不同项目、不同任务类型,需要不同的工作逻辑。

举个例子,你可以给某个项目绑定一个「项目军师」角色,职责是梳理需求、拆解路线、写方案、做决策建议、控节奏。绑定之后,AI 在这个项目的上下文里就始终以这套方式工作,不会跑偏到别的模式。

同理,你可以设定专门处理文件的角色、专门审代码的角色、专门写方案的角色。同一个 AI,绑定不同角色之后,输出的质量和针对性是有实质差异的。

这比语气切换实用得多。需要的不是一个会说软话的 AI,而是一个在特定上下文里能持续发力的工作搭档。


定时任务:让 AI 主动替你干活

大多数 AI 工具是被动的——你问,它答;你不问,什么都不发生。QClaw 的定时任务打破了这个模式。

用自然语言直接创建任务,比如:

  • 「设置每日 8:00 自动抓取今日 AI 科技热点,整理成简报发给我」
  • 「提醒我喝水,每日 10:00 执行,从今天开始持续生效」
  • 「每天推送当天最新 10 条科技新闻,每条总结要精简」
定时任务界面

这不是日历提醒,是真正的自动化任务。任务触发时,AI 自动联网搜索、整理内容,然后推送到你的微信。你开会的时候它在跑,你睡觉的时候它在跑,你不在电脑旁的时候它还在跑。

「灵感广场」里还有一批现成的任务模板,比如热点资讯自动汇总、懒人出游规划等,不用自己想任务怎么描述,直接套用就行。

灵感广场模板

创建一个每天早上 8 点推送 AI 科技简报的任务,只需要说一句中文。QClaw 会自动生成 cron 表达式 0 8 * * *,时区设定为 Asia/Shanghai,会话模式设为 isolated(隔离运行,不污染主对话),全程不需要你手动填任何参数。

创建定时任务

任务配置文件的实际内容长这样——job id、名称、cron 表达式、时区、会话模式,都自动生成好了。

cron job 配置

整套定时任务系统跑在本地,不依赖云端服务器,任务数据不上传,执行结果也不经过第三方。


它是怎么「记住你」的

这是整个产品里我觉得设计最用心的部分。

QClaw 的工作空间里有一套结构化的 Markdown 文件系统,AI 用这套文件来维持跨对话的记忆:

  • AGENTS.md:总工作守则,规定每次开工先读什么、什么能直接做、什么要先问你、记忆该写到哪里
  • SOUL.md:性格和气质设定,定义说话风格、观点表达方式、隐私边界
  • IDENTITY.md:名字和人设,初始化时你们协商的内容
  • USER.md:你的档案,记录偏好、习惯、长期上下文
  • MEMORY.md:长期记忆,从日常对话中提炼出值得长期保留的内容
  • memory/YYYY-MM-DD.md:每日记忆日志,记录当天做了什么、遇到什么问题、做了哪些决定
记忆文件系统原理
记忆文件系统续

QClaw 自己把这套系统描述为「AI 助手的内脏系统」:SOUL.md 是性格,IDENTITY.md 是名字和人设,USER.md 是你的档案,MEMORY.md 是它的长期记忆。

这个比喻很准。普通 AI 工具每次对话都是从零开始,没有积累。QClaw 记得你上次说不喜欢废话,记得你正在做的项目,记得你的工作节奏和决策习惯。用的时间越长,它越懂你——这才是「个人 AI 助手」这个词应该有的含义。


本地跑意味着什么

QClaw 的「本地部署」不只是一个技术参数,它在实际使用中有两层含义。

第一层是数据不出门。你的文件、对话记录、记忆文件全部留在自己电脑上,不上传到任何服务器。处理敏感商业信息、内部文档的人,这是硬需求。

第二层是真正的系统控制权。因为运行在本地,QClaw 可以直接操作你的文件系统、调用本地应用、执行脚本,而不是只能在沙盒对话框里回答问题。这让它从「智能问答工具」变成了「能干活的本地 AI 员工」。


适合什么人用

以下几类人会觉得 QClaw 非常顺手:

需要长期用 AI 辅助工作的人。 不是偶尔问个问题,而是把 AI 深度嵌入日常流程。这类人对「每次都要重新解释背景」这个问题深有体会,QClaw 的持久记忆直接解决了这个痛点。

经常移动办公的人。 在手机微信上触发本地 AI 任务,这个能力对经常出差、开会、不在电脑前的人有实际价值。

有数据安全顾虑的人。 本地部署加上自定义模型接入,数据流向完全可控。

想自动化重复性信息工作的人。 定时资讯摘要、自动整理内容、定时提醒——以前要靠 RPA 工具或自己写脚本,现在说一句中文就能搞定。


最后

OpenClaw 的爆发让整个 AI 代理方向的逻辑变得更清晰:模型本身在商品化,谁能把模型的能力真正接入你的日常工作流,谁才有长期价值。QClaw 选择的路径是——住在你电脑里,认识你,记住你,主动替你干活,通过你最常用的 App 和你交互。

这条路不算新鲜,但把每个环节都做扎实的产品,现在还不多(其实也不少了)。

龙虾的生态还在快速扩张,Skills 在增加,平台接入在增加,记忆系统在迭代。现在上手,赶上的是一个还在高速成长的早期阶段——对于愿意折腾的人来说,这个时间点进来挺合适的。

Read more

基于fpga的双边滤波。

1、前言。         双边滤波是一种非线性滤波器,它既可以达到降噪平滑,同时又保持边缘的效果。和其他滤波的原理一样,双边滤波也是采用加权平均的方法,用周边像素亮度值的加权平均来代表某个像素的强度,所用的加权平均也是基于高斯分布的。         双边滤波的权重,不仅考虑了像素的空间距离(如高斯滤波),还考虑了像素范围的 辐射差异(如像素与中心像素的相似程度,也是高斯分布的),结合空间距离与相似度, 计算得到最终的权重(空间距离与相似度的高斯分布)。        数学原理:对于每一个像素p,输出值b(p)是其领域像素内的加权平均。 * I(p):原图像在像素p处的值; * Gd(||p-q||):空间距离权重(越远的像素权重越小); * Gr (∣I(p)−I(q)∣):像素值差异权重(像素差越大权重越小); * Ω:邻域窗口(如3×3、5×5); Wp :归一化系数(所有权重之和)。 2、高斯核和相似度权重。         由前一章的高斯滤波教程我们知道。

【异常】飞书OpenClaw机器人 HTTP 401: Invalid Authentication 报错排查与解决方案

【异常】飞书OpenClaw机器人 HTTP 401: Invalid Authentication 报错排查与解决方案

飞书OpenClaw机器人 HTTP 401: Invalid Authentication 报错排查与解决方案 一、报错内容 在飞书客户端会话场景中,用户向企业OpenClaw机器人发送交互消息后,OpenClaw无预期业务响应,会话内持续返回标准化报错信息:HTTP 401: Invalid Authentication。 该报错可稳定复现于单聊、群聊等所有机器人交互场景,表现为用户每触发一次机器人交互,就会同步返回该报错信息,无正常业务逻辑执行结果返回。 二、报错说明 2.1 报错本质定义 HTTP 401 是HTTP协议标准定义的未授权(Unauthorized) 状态码,核心含义为请求方身份认证无效,服务端拒绝执行本次请求。 在飞书开放平台的机器人场景中,该报错的本质是:飞书开放平台服务端对自建机器人的全链路鉴权校验失败。无论是机器人接收飞书事件推送的上行请求,还是机器人主动调用飞书开放平台API的下行请求,只要身份凭证无效、鉴权逻辑校验不通过,飞书服务端就会返回该报错,并最终透传到飞书客户端会话窗口中。

【OpenHarmony】鸿蒙Flutter智能家居应用开发实战指南

【OpenHarmony】鸿蒙Flutter智能家居应用开发实战指南

鸿蒙Flutter智能家居应用开发实战指南 概述 智能家居是鸿蒙全场景生态的重要应用场景。本文讲解如何基于鸿蒙Flutter框架,开发一套完整的智能家居应用,实现设备发现、控制、场景联动、语音交互等核心功能。 欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 系统架构设计 整体架构图 ┌────────────────────────────────────────────────────────────┐ │ 用户交互层 (Flutter) │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │ │ │ 设备控制面板 │ │ 场景编排 │ │ 语音交互 │ │ │ └─────────────┘ └─────────────┘ └─────────────┘ │ └───────────────────────┬────────────────────────────────────┘ │ RPC/事件总线 ┌────────────────────

2025前端框架趋势:React领跑,Vue稳健,Angular深耕企业级

文章概要 2025年,前端框架市场呈现React、Vue、Angular三足鼎立格局。React凭借生态优势持续领跑,Vue以渐进式架构赢得开发者青睐,Angular则聚焦企业级应用。本文结合技术特性、学习曲线与行业实践,解析三大框架的演进方向与选型策略。 最近整理前端框架选型数据时,我惊讶地发现:尽管社区争论不断,React、Vue、Angular 这三大框架依然稳坐2025年的头把交椅,像极了技术圈的“三巨头”。它们各自占据不同生态位,形成了一种微妙的平衡。 从NPM下载量来看,React的优势几乎无可撼动——周下载量突破5700万次,几乎是Vue的两倍。这背后是Meta强力支撑下的庞大生态:从Next.js到React Native,从Redux到Zustand,几乎每个细分领域都有成熟方案。尤其在全球市场,金融、社交平台等数据密集型应用几乎清一色选择React,虚拟DOM+服务端组件(RSC) 的组合在复杂交互场景下表现尤为出色。 而Vue虽然全球占比32%,却在中国开发者中实现了近50%的使用率,堪称“本土之王”。阿里、百度、腾讯等大厂的中后台项目大量采用Vue