小龙虾 OpenClaw 安装教程:从零到能干的 AI 助手

一、OpenClaw 是什么?

OpenClaw(社区俗称「小龙虾」)是一款可本地/自建的开源 AI 助手,特点是「能干活」:除对话外,支持浏览器自动化、桌面控制、向量记忆、定时任务等,并可通过 Gateway 接入微信、飞书、Telegram、Discord 等渠道。技术栈以 Node.js 为核心,适合作为「AI + 自动化 + 多端接入」的练手或生产项目。

本文以学习 + AI + 前端为场景,手把手带你完成安装与第一次配置。


二、安装前准备

2.1 系统与硬件

  • 系统:Windows 10/11、macOS 12+(推荐 14+)、或 Linux(如 Ubuntu 20.04+、Debian 11+)
  • 内存:至少 2GB,推荐 4GB 以上
  • 磁盘:预留约 500MB
  • 网络:需要联网(调用各类 AI API)

2.2 必装环境:Node.js

OpenClaw 依赖 Node.js 22 或更高版本(推荐 LTS)。若未安装:

或用 nvm 管理多版本:

# 安装并切换到 Node 22 nvm install22 nvm use 22

安装后验证:

node-v# 应 >= v22.x.xnpm-v

2.3 准备一个 AI API Key(必选)

OpenClaw 本身免费,但需要接入一家 AI 服务商的 API:

  • 新手推荐MiniMax — 国内直连、可免费试用约 7 天,无需信用卡
  • 其他可选:Claude、GPT、DeepSeek、通义等(按官方文档配置对应 Key 即可)

先到所选平台注册账号,在控制台里拿到 API Key,安装完成后在配置向导里填入。


三、安装方式(任选其一)

方式一:一键脚本(最省事)

Windows(PowerShell,以管理员身份运行):

iwr-useb https://clawd.org.cn/install.ps1 -OutFile install.ps1;./install.ps1 

macOS / Linux:

curl-fsSL https://openclaw.ai/install.sh |bash

也可使用带参数的安装(例如指定 git 方式):

curl-fsSL https://openclaw.ai/install.sh |bash-s -- --install-method git

脚本会自动处理依赖,一般 3~5 分钟即可完成。


方式二:npm / pnpm 全局安装(适合前端同学)

已熟悉 Node 生态的话,可以直接:

npminstall-g openclaw # 或使用 pnpm(推荐)pnpmadd-g openclaw@beta 

安装完成后,在终端输入 openclawclaw 应能识别。


方式三:从源码安装(适合想改代码、学架构的前端)

git clone https://github.com/openclaw/openclaw.git cd openclaw pnpminstallpnpm build 

之后可通过项目内的 CLI 或脚本启动,便于阅读和二次开发。


方式四:Docker 部署(适合有容器经验的)

docker pull openclaw/openclaw:latest docker run -d--name openclaw -p3000:3000 -v ~/.openclaw:/root/.openclaw openclaw/openclaw:latest 

按需把端口 3000 改成你本机未被占用的端口。


四、第一次配置:openclaw onboard

安装完成后,务必先跑一遍配置向导

openclaw onboard 

(若使用源码安装,可能是 pnpm run onboard 或项目内提供的等效命令,以仓库说明为准。)

向导会引导你:

  1. 选择 AI 模型 / 供应商(如 MiniMax、Claude、DeepSeek 等)
  2. 填写 API Key(上一步准备好的)
  3. 选择聊天平台(如微信、飞书、Telegram 等,可先不选,后续再配)
  4. Gateway 等高级选项(一般默认即可)

配置会写入 ~/.openclaw/(Windows 一般在用户目录下的 .openclaw),之后可手动编辑同一目录下的配置文件做进阶调整。


五、验证安装是否成功

在终端执行:

openclaw --version# 查看版本 openclaw doctor # 环境与依赖自检

doctor 通过,说明环境正常。接下来可启动本地 Web 界面或对接聊天平台。


六、启动与使用

6.1 Web 界面(前端/学习最直观)

很多安装方式会默认启动 Web 服务,或提供类似命令:

openclaw start # 或按文档说明启动 Web

浏览器访问:http://127.0.0.1:18789/(端口以实际文档为准,常见 18789 或 3000)。
在这里可以直接和 OpenClaw 对话,并体验「浏览器操作」「电脑控制」等能力,对前端同学理解「AI + 前端」交互非常直观。

6.2 安装「技能」模块(可选)

按需安装官方/社区技能,例如:

claw install browser # 浏览器操作 claw install desktop-control # 电脑控制 claw install vector-memory # 记忆系统 claw install auto-updater # 自动更新

装好后在 Web 或聊天平台里即可使用对应能力。

6.3 接入微信 / 飞书 / Telegram

openclaw onboard 或配置文件中按文档填写对应平台的 Token/密钥,即可在聊天软件里和同一只「小龙虾」对话,实现「多端一个助手」。


七、学习与前端向的小建议

  1. 先 Web 再聊天:先把 Web 界面玩熟,再接微信/飞书,更容易理解「对话 → 任务 → 执行」的流程。
  2. 看源码:若你偏前端,可 clone 官方仓库,从 Web UI 和技能插件的代码看起,对理解 AI 产品形态很有帮助。
  3. 成本:软件免费,主要成本是 AI API 调用费;MiniMax 等有免费额度,适合练手和做小项目。
  4. 遇到问题:优先查 OpenClaw 官方文档、GitHub Issues 和社区教程(如 53AI、ZEEKLOG、SegmentFault 上的「OpenClaw 安装」文章)。

八、小结

步骤动作
1. 环境安装 Node.js 22+,准备一个 AI API Key
2. 安装一键脚本 / npm 全局 / 源码 / Docker 任选
3. 配置执行 openclaw onboard 选模型、填 Key
4. 验证openclaw doctoropenclaw --version
5. 使用浏览器打开 Web 地址,或接入微信/飞书等

按上述流程走一遍,你就能在本地拥有一个「能干活的」小龙虾 OpenClaw,非常适合作为 学习 AI + 前端 的实战入口。


Read more

ofd.js终极指南:前端OFD文件解析与渲染完整解决方案

在数字化浪潮席卷各行各业的今天,OFD(Open Fixed-layout Document)作为中国自主可控的版式文档标准,正迅速成为电子发票、电子公文、电子档案等领域的首选格式。然而,传统OFD处理方案往往需要复杂后端支持,增加了系统复杂性和部署成本。🚀 【免费下载链接】ofd.js 项目地址: https://gitcode.com/gh_mirrors/of/ofd.js 痛点剖析:为什么传统方案不够好? 部署复杂:传统方案依赖服务器端渲染,增加了运维负担 响应延迟:网络传输导致文档预览体验不佳 兼容性差:不同浏览器和设备上的表现不一致 成本高昂:需要购买昂贵的商业软件或开发复杂的后端服务 💡 这正是ofd.js诞生的意义所在——提供一套纯前端的OFD文件解析与渲染方案,让开发者能够在浏览器中直接处理OFD文档,无需任何后端依赖。 解决方案:ofd.js如何改变游戏规则? 核心技术架构解密 ofd.js采用模块化设计,将复杂功能拆分为多个独立模块: 模块类别核心文件主要功能解析引擎ofd_parser.jsOFD文件结构解析与数据提取渲染引擎ofd_

网页抓取(Web Scraping)完整技术指南:从原理到实战

在数据驱动的时代,结构化信息已成为企业决策、AI 训练与市场分析的核心资源。网页抓取(Web Scraping) 作为从非结构化网页中提取结构化数据的关键技术,广泛应用于电商、金融、舆情监测、学术研究等领域。 本文将系统解析网页抓取的工作原理、工具链、反爬对抗策略与法律边界,并提供可落地的工程建议。 一、什么是网页抓取? 网页抓取是指通过程序自动访问网页,解析 HTML/JSON 内容,并将目标数据提取、转换为结构化格式(如 CSV、数据库记录)的过程。 与网络爬虫(Crawler)的区别:爬虫:广度优先遍历全站链接(如搜索引擎);抓取:深度聚焦特定页面的数据字段(如商品价格、评论)。 典型应用场景包括: * 电商比价(Amazon、Shopee 商品监控) * 招聘数据聚合(职位趋势分析) * 社交媒体舆情监测(公开评论情感分析) * 学术数据采集(论文元数据批量下载)

DeepSeek-R1-Distill-Qwen-1.5B从零部署:vLLM+Open-WebUI环境搭建教程

DeepSeek-R1-Distill-Qwen-1.5B从零部署:vLLM+Open-WebUI环境搭建教程 1. 为什么这款“小钢炮”值得你花30分钟装一遍 你有没有试过在一台只有4GB显存的旧笔记本上,跑一个数学推理能力接近80分(MATH数据集)、还能写Python函数、支持JSON输出、响应速度超过200 tokens/s的模型?不是幻想——DeepSeek-R1-Distill-Qwen-1.5B 就是这么个“反常识”的存在。 它不是参数堆出来的巨无霸,而是用80万条高质量R1推理链,对通义千问Qwen-1.5B做深度蒸馏后的成果。15亿参数,fp16整模仅3.0 GB;量化到GGUF-Q4后压缩至0.8 GB,连树莓派5或RK3588嵌入式板卡都能稳稳扛住。更关键的是:Apache 2.0协议,商用免费,不设门槛。 这不是“能跑就行”的玩具模型。它在MATH上拿80+、HumanEval超50、推理链保留率85%,日常写脚本、解方程、读文档、调API完全够用。

用 Vue 3 重构 Dify 聊天前端(上篇):项目搭建与基础架构

用 Vue 3 重构 Dify 聊天前端(上篇):项目搭建与基础架构

本系列教程将带你从零开始,用 Vue 3 + TypeScript 复刻一个类似 Dify 的 AI 聊天前端。上篇聚焦项目搭建、类型设计、路由认证、HTTP 封装和状态管理。 项目简介 背景 Dify 是一个开源的 LLM 应用开发平台,提供了对话式 AI 的后端服务。在实际项目中,我们往往需要自建前端来对接Dify后端 API或LLM后端服务,实现定制化的聊天界面。 本项目的目标:用 Vue 3 构建一个生产级的 AI 聊天前端,具备以下能力: * SSE 流式输出(打字机效果) * Markdown 渲染 + 代码高亮 * 用户认证 * 文件/图片上传 * 聊天会话历史管理 * 工作流执行可视化 * Agent 思考过程展示 * 移动端响应式适配