免费部署openClaw龙虾机器人(经典)

免费部署openClaw龙虾机器人(经典)

前几天出了个免费玩龙虾的详细教程,很多小伙伴觉得不错,但是还有一些新手留言反馈内容不够详细,这次我将重新梳理一遍,做一期更细致的攻略,同时扩展补充配置好之后的推荐(我认为是必要)操作,争取一篇文章让大家可以收藏起来,随时全套参照复用。

先看效果测试

部署完成基础运行效果测试,你可以直接问clawdbot当前的模型:

1.Token平台准备

首先,还是准备好我们可以免费撸的API平台

这里我找到了两个可以免费使用的API,测试之后执行效率还可以,下面将分别进行细致流程拆解。

1.1 硅基流动获取ApiKey (相对免费方案 推荐)

硅基流动地址:https://cloud.siliconflow.cn/i/6T57VxS2

如果有账号的直接登录,没有的注册一个账号,这个认证就送16元,可以直接玩收费模型,真香。认证完成后在API秘钥地方新建秘钥。

硅基流动里面很多模型原来是免费的,有了16元注册礼,很多收费的模型也相当于免费用了,我体验一下了原来配置免费模型还能用,也是值得推荐的。建议使用截图的第一个模型体验一下,我一直用它。

1.2 推理时代Api  (绝对免费方案 纯免费但没有上面的好用)

推理时代地址:https://aihubmix.com/?aff=DJ5f

注册之后也是创建自己的key备用,如果已经搭建好的龙虾可以直接用这个key,后面会讲如何在可视化搭建龙虾中应用。

推理时代有很多模型是直接免费的,我认为以后会越来越卷,免费的也会越来越多。

准备好key之后,可以回到首页看一下免费的模型有哪些,推理时代的模型还是很友好的,免费的后面都会给你标注一个-free这在我们配置的时候很容易识别。

2.必要软件及下载安装配置

cherry-studio 下载地址:https://www.cherry-ai.com/download

node.js 下载地址:https://nodejs.org/zh-cn/download/

git 官方下载地址:https://git-scm.com/

其中git比较慢,我在评论区把下载好的网盘地址分享给大家。

Cherry的安装没有太多技巧,直接下一步即可,但要根据自己的系统情况进行下载。

Node.js下载的时候千万别选错芯片类型:

然后安装时勾选自动安装依赖:

几个必要的安装包安装完成之后,下面就是一键安装clawbot。

先确认自己的cherry设置导航栏是在左侧的。

图片

点左侧龙虾机器人图标,开始安装:

装完成之后,就可以进行模型配置了。

3.模型配置

打开cherryStudio的设置,然后将刚才准备的key填入对应的平台地址。

图片

注意一定要先添加免费模型:

还是当前操作界面,翻到最下面点管理,然后将免费模型加一些进来。这个是支持gemini和chatGPT的,很香。

图片

添加完测试一下, 选国内的模型厂商一般都是通的:

这样就可以开始体验clawdbot了。

回到clawdbot小图标,然后选择对应的模型启动。

图片

启动之后,我们就可以给自己的龙虾派任务了,你也拥有了直接免费的龙虾,当然,免费不是目的,如果你的投入产出理想的话也可以使用更强大的模型。

对于小白现在就可以用了,下面是进阶应用,需要懂点命令行的。

================================================

4. 推荐操作(建议全文保存)

4.1 安装clawhub并更换clawhub源到阿里云国内镜像

安装clawhub命令:

    npm i -g clawhub

    配置国内镜像源命名:

      openclaw config set --global registry https://openclaw.registry.aliyuncs.com

      4.2 安装必要skill

      安装skill的命令

        clawhub install <技能名称>

        推荐安装的基础技能

        序号

        技能名称

        必装理由

        1

        tavily-search

        联网实时搜索,支持精准问答/热点查询,解决AI信息滞后问题

        2

        self-improving-agent

        让Agent记录错误并自我优化,交互越久越智能

        3

        find-skills

        AI自动检索ClawHub并推荐适配技能,解决「装什么」痛点

        4

        clawhub-update

        一键更新所有已装技能,同步官方最新版本

        5

        session-manager

        管理OpenClaw会话,支持一键保存/恢复对话内容

        5.连接飞书或钉钉远程调度机器人

        很多人推荐安装飞书,可能出于办公自动化需要,但是我实际测试发现飞书限流,很多语句会丢包,所以最终选择了钉钉,基本上面配置很简单。

        先安装钉钉依赖插件:

          openclaw plugins install https://github.com/soimy/clawdbot-channel-dingtalk.git

          (如果访问不了,直接问一下找一找内地镜像下载下来,告诉你openclaw自己装,然后把必要的key直接发给机器人,机器人可以自己装)

          然后:

          登录钉钉开放平台(https://open.dingtalk.com),切换到你的企业。

          创建企业内部应用

          获取应用凭证

          添加并配置机器人

          发布应用与机器人

          (可选)开启 AI 卡片流式输出

          效果:

          这样,你就可以远程指挥自己的机器人了,随时随地给他发命令让他干活儿。

          6.记忆增强(节省Token消耗)

          节省token的最佳方式是增强机器人的记忆,所以我这里使用的是memOS,key是免费的,我还是觉得有key的更好一点。

          安装命令(也可以把你的密钥丢给机器人让他自己装)

            openclaw plugins install github:MemTensor/MemOS-Cloud-OpenClaw-Plugin

            这样你的Token消耗就可以大幅节省,据说可以达到75%以上的账单压缩。

            后续相关新的小技巧就在本页评论区更新了,大的玩法攻略会单独更新到AI Agent专题中。

            Read more

            【论文阅读+代码梳理】Multimodal Diffusion Transformer: Learning Versatile Behavior from Multimodal Goals

            【论文阅读+代码梳理】Multimodal Diffusion Transformer: Learning Versatile Behavior from Multimodal Goals

            一、论文阅读 借助deepseek和豆包,对此表示感谢。 1.1 摘要 问题:现有的绝大多数模仿学习的方法只从个别的目标模态中学习,例如语言和图像。但是现有的大规模模仿学习数据集仅部分标注了语言标注,是的现有方法无法充分利用这些数据集中学习语言条件化行为。 解决方案:MDT引入在多模态目标指令上同时训练的潜在目标条件状态表示来解决。CLIP将图像和语言的目标嵌入对齐,通过两个自监督辅助任务进行训练,让目标嵌入能够编码足够的信息预测未来状态。 效果:在包含不到2%的语言注释的数据集任务中表现出右移的性能,展示了从稀疏标注中解决长时操纵的能力。 创新点: 1. 提出了一种新的基于Transformer的扩散方法,Multimodal Diffusion Transformer,从多模态目标中学习。具体来说,CLIP对多模态目标信息(语言指令/未来20-50帧的图像)编码,Voltron&Perceiver/ResNet18对当前的图像(第三视角静态图像、机械臂腕部图像)进行编码,将编码得到的token concat然后输入到Multimodal TransformerEncod

            Xilinx FPGA上构建RISC-V五级流水线CPU实战案例

            以下是对您提供的博文内容进行 深度润色与结构重构后的技术文章 。整体风格更贴近一位资深嵌入式系统教学博主的自然表达:逻辑清晰、语言精炼、富有实战温度,彻底去除AI腔调和模板化痕迹;同时强化了工程细节、设计权衡与真实调试经验,使读者既能理解原理,又能照着落地。 在Xilinx FPGA上手撸一个五级流水线RISC-V CPU:不是Demo,是真能跑 addi 和 beq 的硬核实践 你有没有试过,在FPGA上跑通第一条自己写的RISC-V指令?不是用Vivado自动生成的IP核,也不是靠PicoRV32“一键导入”,而是从零开始画出IF/ID/EX/MEM/WB每一级、亲手写完所有前递逻辑、连ILA探针都打在ALU输出口上——看着波形里 pc=0x1004 跳到 0x1008 ,再看到 x1 真的被 lw 从内存里读出来、又被下一条 add 正确用了……那种感觉,比仿真通过还踏实。 这正是本文要带你完成的事: 在一个XC7A100T(Artix-7)

            FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例)

            FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例) 📚 目录导航 文章目录 * FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例) * 📚 目录导航 * 概述 * 一、时钟约束基础概念 * 1.1 为什么需要时钟约束 * 1.1.1 指导综合优化 * 1.1.2 指导布局布线 * 1.1.3 进行静态时序分析 * 1.1.4 定义时钟域关系 * 1.2 时钟约束的分类 * 1.2.1 主时钟(Primary Clock) * 1.2.2 衍生时钟(

            基于深度学习YOLO算法+qwen deepseek大模型的无人机河道巡检系统平台 支持AI对话与文档生成分析

            基于深度学习YOLO算法+qwen deepseek大模型的无人机河道巡检系统平台 支持AI对话与文档生成分析

            YOLO+DeepSeek河道环境检测系统 项目简介 基于改进YOLO深度学习模型与DeepSeek大语言模型的河道环境智能检测与分析系统。本系统采用先进的计算机视觉技术,结合自然语言处理能力,实现对河道环境中各类目标的高精度检测与智能分析。系统支持单张图片、批量图片、视频文件及实时摄像头等多种输入方式,提供从环境检测到智能建议的完整解决方案,为河道治理、环境保护与水资源管理提供智能化技术支持。 ✨ 核心亮点 • 多场景检测支持:全面覆盖单张图片、图片文件夹、视频文件、实时摄像头四种输入方式 • 改进YOLO模型:基于YOLOv5/v8/v11/v12的优化版本,专注河道环境目标检测 • AI智能分析:集成DeepSeek/Qwen大模型,生成专业的河道环境分析与治理建议 • 实时处理反馈:前端实时展示检测进度与结果,支持实时视频流处理 • 完整技术栈:PyTorch深度学习 + SpringBoot后端 + Vue3前端 + Flask中台的完整架构 • 开箱即用:提供完整源码、预训练模型与详细部署文档,快速上手使用 🌊 检测对象范围 系统可精准识别河道