OpenClaw保姆级安装教程:windows&ubuntu

OpenClaw保姆级安装教程:windows&ubuntu

这次给大家带来了OpenClaw安装全流程,从Node.js环境准备到完整OpenClaw安装配置。无论是Ubuntu还是Windows,都能按照本指南快速完成OpenClaw安装并成功运行。

一、Ubuntu 环境安装教程

对于很多开发者来说,Linux 环境是运行服务器和后台服务的首选。如果你目前还没有安装 Ubuntu 系统,或者对 Linux 环境还比较陌生,完全不用担心。你可以先去阅读一下《安装篇–Ubuntu24.04.2详细安装教程》这篇文章,跟着教程把基础的操作系统环境搭建好之后,再回到这里继续往下进行。

在 Ubuntu 中,我将全程使用命令行来完成安装。

第一步:部署 Node.js 基础运行环境

OpenClaw 对 Node.js 的版本有一定要求,为了保证最佳的兼容性和性能,我们这里强烈推荐安装Node.js 22.x版本。

首先,我们需要下载并执行 NodeSource 提供的官方安装配置脚本,它会自动帮我们配置好软件源:

curl-fsSL https://deb.nodesource.com/setup_22.x |bash - 
在这里插入图片描述

等待上述脚本的执行日志跑完,并且看到成功的提示后,我们就可以直接使用 apt 包管理器来安装 Node.js 本体了:

apt-getinstall-y nodejs 
在这里插入图片描述

安装的过程根据你的网络情况可能会持续几十秒到几分钟不等。安装完成后,我们必须验证一下环境是否真的搭建成功。在终端中输入查看版本的命令:

node-v

如果你在屏幕上看到了类似于 v22.22.1 这样的版本号输出,那么恭喜你,最关键的地基已经打好了。

在这里插入图片描述

第二步:全局安装 OpenClaw

接着我们需要把 OpenClaw 安装到全局环境中,这样你在任何目录下都可以直接用它。

在终端中执行以下安装命令:

npminstall-g openclaw@latest 
在这里插入图片描述

当终端提示 added xxx packages 时,说明所有的依赖包都已经下载并解压完毕。为了确认程序可用,我们检查一下 OpenClaw 的版本信息:

openclaw --version
在这里插入图片描述

第三步:初始化向导与大模型配置

OpenClaw 安装好之后还只是一个空壳,我们需要给它连接大模型。官方提供了一个交互式配置向导。

启动初始化向导并安装守护进程:

openclaw onboard --install-daemon 

此时屏幕上会刷出一个巨大的由字符拼成的 OPENCLAW 图标,并且会弹出一段安全警告。

在这里插入图片描述

因为 OpenClaw 拥有读取文件和执行命令的权限,系统会询问你是否了解这是一款默认面向个人的高权限工具。如果你是在自己的私人机器或虚拟机里运行,请放心地选择Yes继续。

在这里插入图片描述

接着选择向导模式,为了不被复杂的配置项淹没,我们直接选择绿色的QuickStart模式。

在这里插入图片描述

现在到了最核心的一步:选择大模型供应商。针对国内的网络环境和性价比考量,这里我们以 Kimi 为例。使用键盘的上下方向键,选中Moonshot AI (Kimi K2.5)并回车。

在这里插入图片描述

认证方式我们选择第一项,即标准的Kimi API key (.ai)

在这里插入图片描述

系统会询问你如何提供这个秘钥,选择Paste API key now,意思是现在直接在终端里粘贴。

在这里插入图片描述

在出现的提示行 Enter Moonshot API key 后面,鼠标右键或者使用快捷键粘贴你之前申请好的 API Key,然后按下回车键确认。

在这里插入图片描述

在选择默认模型时,直接保持选中的Keep current (moonshot/kimi-k2.5)不动即可。

在这里插入图片描述

接下来的几个步骤是一些扩展功能的配置,为了尽快完成基础搭建,我们可以暂时略过:
在选择 Select channel 时,移动到最下方选择Skip for now

在这里插入图片描述

在选择 Search provider 时,我们可以顺手选择Kimi (Moonshot),让它具备联网搜索的能力。

在这里插入图片描述

系统询问是否现在配置 Configure skills now?,选择绿色的No

在这里插入图片描述

询问是否启用 Enable hooks?,依然选择Skip for now

在这里插入图片描述

经过这一系列问答,配置终于完成。终端会打印出 Control UI 的控制台网址以及专门为你生成的安全访问 Token。

在这里插入图片描述

第四步:启动网关服务并进入可视化界面

通常配置完成后,我们需要手动把网关服务跑起来。使用以下命令启动服务,并指定监听端口为 18789:

openclaw gateway --port18789

随后,你会在终端看到不断刷新的日志,这意味着网关已经成功绑定端口并开始监听请求了。

在这里插入图片描述
http://服务器IP:18789 

在地址栏输入 http://127.0.0.1:18789/(如果是在服务器上,请把 IP 换成你服务器的公网 IP)。
回车之后,一个聊天页面就会呈现在你眼前。你现在可以直接在输入框里跟你的 AI 助手聊天。

在这里插入图片描述

二、Windows 系统环境安装

相对于 Linux 的纯命令行,Windows 的安装过程会更加符合普通用户的直觉,我们将结合图形化安装包和系统命令行来共同完成部署。

第一步:下载并安装 Node.js 运行库

不管是在什么系统上,打好 Node.js 这个地基永远是第一步。

首先,打开你的浏览器,访问 Node.js 的官方网站主页,点击屏幕中央非常醒目的绿色大按钮Get Node.js

在这里插入图片描述

页面跳转后,由于你是 Windows 用户,直接点击左侧的Windows Installer (.msi)按钮,下载对应的安装包到你的本地电脑上。

在这里插入图片描述

找到刚才下载好的 .msi 后缀的安装文件,双击启动它。在欢迎界面的右下角,直接点击Next

在这里插入图片描述

阅读最终用户许可协议,勾选左下角的I accept the terms in the License Agreement,然后继续点击 Next。

在这里插入图片描述

接下来是选择安装路径。可以点击 Change 按钮修改到 D 盘或者 E 盘,然后点击 Next。

在这里插入图片描述

在 Custom Setup 安装这个界面,不需要做任何修改,保持默认勾选的所有组件,直接点击 Next。

在这里插入图片描述

当你看到名为 Tools for Native Modules 的界面时,请一定要勾选屏幕中间的那个框:“Automatically install the necessary tools…”。如果不勾选这个,后续你在安装某些复杂的开源库时会疯狂报错,这能帮你省去无尽的麻烦!勾选完毕后点击 Next。

在这里插入图片描述

一切就绪,点击Install按钮,静静等待进度条跑完。

在这里插入图片描述

看到 Completed 界面后,点击Finish按钮结束整个图形化安装过程。

在这里插入图片描述

为了确认 Node.js 确实已经安装进了你的系统环境变量中,请按下键盘上的 Win + R 快捷键,输入 cmd 并回车调出黑色命令行窗口。在里面输入:

node -v 

如果能正确打印出类似于 v24.13.0 这样的版本号,就说明大功告成了。

在这里插入图片描述

第二步:在 Windows 终端全局安装 OpenClaw

请打开 PowerShell 或者 CMD 终端(为了防止权限问题,强烈建议鼠标右键选择“以管理员身份运行”)。然后在里面输入以下命令:

npm i -g openclaw 

这个过程会从远端服务器拉取大量的代码包,等待一到两分钟,直到出现 added xxx packages 的字样,安装就完成了。

在这里插入图片描述

第三步:启动交互式配置向导

和 Ubuntu 系统的流程类似,我们也需要告诉 Windows 上的 OpenClaw 它该连接哪家的大模型。

在刚才的终端中输入初始化命令:

openclaw onboard 
在这里插入图片描述

认真阅读屏幕上出现的安全风险提示说明,由于我们清楚自己在做什么,果断选择绿色的Yes继续。

在这里插入图片描述

在选择配置模式时,为了节省时间,我们依然选择第一项QuickStart快速模式。

在这里插入图片描述

这一次,我们换一个模型供应商来演示。使用方向键找到并选中MiniMax,这款模型在处理长文本和逻辑推理方面也有着不俗的表现。

在这里插入图片描述

进入具体的认证方式选择,为了保证连接的稳定性,请选择带有国内节点标识的MiniMax M2.5 (CN)选项。

在这里插入图片描述

系统询问如何输入 API 秘钥,选择Paste API key now准备直接粘贴。

在这里插入图片描述

此时把你在 MiniMax 开放平台申请的秘钥文本复制过来,在终端里右键点击即可粘贴,然后按下回车。

在这里插入图片描述

默认模型设置这一步,不需要修改,保持高亮的Keep current (minimax-cn/MiniMax-M2.5)选项并回车。

在这里插入图片描述

后续的高级配置选项,针对新手我们先全部跳过,等熟悉了之后再回来研究:
接入渠道选择Skip for now

在这里插入图片描述

搜索引擎服务选择Skip for now

在这里插入图片描述

是否配置技能选择No

在这里插入图片描述

是否启用自动化钩子选择Skip for now

在这里插入图片描述

等待一会,你会看到 Gateway 网关服务已经成功安装,并列出了一系列本地存储路径。

在这里插入图片描述

第四步:一键孵化并访问 Web 控制台

向导进行到最后,会问你打算如何孵化你的机器人。请选择中间那一项Open the Web UI

在这里插入图片描述

选择之后,你会看到终端开始疯狂地吐出各种后台运行日志,这表明你的私有大模型网关正在全力运转。

在这里插入图片描述

与此同时,你的 Windows 默认浏览器会自动弹出一个新标签页,网址指向 http://127.0.0.1:18789。展现在你面前的便是一个本地 AI 聊天控制台。打个招呼,开始探索 OpenClaw 带来的无限自动化潜能吧!

在这里插入图片描述


定位上文

日期:2025年3月11日
专栏:OpenClaw

Read more

人工智能大模型应用开发:从微调适配到场景落地

人工智能大模型应用开发:从微调适配到场景落地

一、人工智能大模型应用开发:从微调适配到场景落地 1.1 本章学习目标与重点 💡 掌握大模型应用开发的核心流程,包括模型选型、微调适配、功能封装、部署上线等关键环节; 💡 熟练运用主流大模型框架(Hugging Face Transformers、LangChain、LlamaIndex 等),实现文本生成、问答系统、智能助手等常见应用; 💡 理解大模型微调的核心技术(全参数微调、LoRA、QLoRA 等),能够根据数据规模和硬件资源选择合适的适配方案; 💡 通过真实场景案例(企业知识库问答、智能客服、代码生成助手),掌握大模型从技术适配到业务落地的端到端开发能力。 ⚠️ 重点关注:大模型的上下文窗口限制、生成内容的准确性与安全性、微调过程中的显存优化、以及生产环境下的性能与稳定性平衡。 1.2 大模型应用开发基础:选型与环境搭建 大模型应用开发的第一步是明确业务需求,选择合适的模型并搭建稳定的开发环境。本节将从模型选型原则、主流开发框架介绍、环境搭建实操三个维度,为后续开发奠定基础。 1.2.1

By Ne0inhk
【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局 摘要 本文基于 TrendRadar 项目,详细拆解如何通过 Docker 本地部署一套个人专属的 AI 热点情报系统。涵盖从环境准备、Docker 镜像拉取、局域网访问配置、飞书推送修复到 Cherry Studio MCP 服务对接的全流程。通过 Nvidia 免费模型 API,实现零成本的深度热点分析与趋势追踪。 关键词: TrendRadar, Docker部署, AI热点分析, MCP服务, Cherry Studio 1. 背景与需求:为什么我们需要 TrendRadar? 在这个大数据算法横行的时代,我们每天被头条、抖音等平台“投喂”大量信息,不仅容易陷入信息茧房,还浪费了大量时间筛选有效资讯。 我的核心需求很简单: 1. 拒绝算法绑架:需要一个个人定制化的新闻推送服务。 2.

By Ne0inhk

Windows10下安装arm64架构的centos

背景 用C++写了一个串口通讯库,方便第三方调用。但是只有Windows,Linux(x86) 32bit, 64bit环境的,客户突然需要 aarch64 / ARM64 Linux 环境下的库,没办法,网上找了一圈,然后实践,这里记录下。 环境 Windows10 qemu-w64-setup-20251224.exe CentOS-7-aarch64-Minimal-2009.iso xshell(可选) 安装QEMU 下载 https://qemu.weilnetz.de/w64/ 安装 双击一路下一步,修改安装位置(这里不要选中文路径),然后安装即可。 下载虚拟机启动固件 下载 QEMU_EFI.fd 下载ARM64架构的centos7.9 下载 CentOS-7-aarch64-Minimal-2009.iso 安装centos系统 新建一个文件,

By Ne0inhk
旧电脑秒变 AI 员工:OpenClaw 本地部署教程(含环境配置 + 插件开发 + 常见坑)

旧电脑秒变 AI 员工:OpenClaw 本地部署教程(含环境配置 + 插件开发 + 常见坑)

前言 本文基于最新OpenClaw版本编写,适配电脑低配置场景(最低2vCPU+2GiB内存+40GiB SSD),兼容Windows 10/11(优先WSL2)、Ubuntu 20.04+系统,全程纯操作指令,覆盖环境配置、本地部署、插件开发、高频坑排查。核心解决部署卡顿、国内网络适配、插件开发无思路、报错无法排查四大痛点,全程适配国内网络(国内镜像源)、国内大模型(通义千问、阿里云百炼等),无需海外代理,可稳定运行实现自动化办公(文件处理、IM对接、任务调度等)。 一、前置准备(适配优化) 1.1 硬件要求(最低适配) * CPU:Intel i3 4代+/AMD Ryzen 3 2000+(支持虚拟化,

By Ne0inhk