OpenClaw保姆级安装教程:windows&ubuntu

OpenClaw保姆级安装教程:windows&ubuntu

这次给大家带来了OpenClaw安装全流程,从Node.js环境准备到完整OpenClaw安装配置。无论是Ubuntu还是Windows,都能按照本指南快速完成OpenClaw安装并成功运行。

一、Ubuntu 环境安装教程

对于很多开发者来说,Linux 环境是运行服务器和后台服务的首选。如果你目前还没有安装 Ubuntu 系统,或者对 Linux 环境还比较陌生,完全不用担心。你可以先去阅读一下《安装篇–Ubuntu24.04.2详细安装教程》这篇文章,跟着教程把基础的操作系统环境搭建好之后,再回到这里继续往下进行。

在 Ubuntu 中,我将全程使用命令行来完成安装。

第一步:部署 Node.js 基础运行环境

OpenClaw 对 Node.js 的版本有一定要求,为了保证最佳的兼容性和性能,我们这里强烈推荐安装Node.js 22.x版本。

首先,我们需要下载并执行 NodeSource 提供的官方安装配置脚本,它会自动帮我们配置好软件源:

curl-fsSL https://deb.nodesource.com/setup_22.x |bash - 
在这里插入图片描述

等待上述脚本的执行日志跑完,并且看到成功的提示后,我们就可以直接使用 apt 包管理器来安装 Node.js 本体了:

apt-getinstall-y nodejs 
在这里插入图片描述

安装的过程根据你的网络情况可能会持续几十秒到几分钟不等。安装完成后,我们必须验证一下环境是否真的搭建成功。在终端中输入查看版本的命令:

node-v

如果你在屏幕上看到了类似于 v22.22.1 这样的版本号输出,那么恭喜你,最关键的地基已经打好了。

在这里插入图片描述

第二步:全局安装 OpenClaw

接着我们需要把 OpenClaw 安装到全局环境中,这样你在任何目录下都可以直接用它。

在终端中执行以下安装命令:

npminstall-g openclaw@latest 
在这里插入图片描述

当终端提示 added xxx packages 时,说明所有的依赖包都已经下载并解压完毕。为了确认程序可用,我们检查一下 OpenClaw 的版本信息:

openclaw --version
在这里插入图片描述

第三步:初始化向导与大模型配置

OpenClaw 安装好之后还只是一个空壳,我们需要给它连接大模型。官方提供了一个交互式配置向导。

启动初始化向导并安装守护进程:

openclaw onboard --install-daemon 

此时屏幕上会刷出一个巨大的由字符拼成的 OPENCLAW 图标,并且会弹出一段安全警告。

在这里插入图片描述

因为 OpenClaw 拥有读取文件和执行命令的权限,系统会询问你是否了解这是一款默认面向个人的高权限工具。如果你是在自己的私人机器或虚拟机里运行,请放心地选择Yes继续。

在这里插入图片描述

接着选择向导模式,为了不被复杂的配置项淹没,我们直接选择绿色的QuickStart模式。

在这里插入图片描述

现在到了最核心的一步:选择大模型供应商。针对国内的网络环境和性价比考量,这里我们以 Kimi 为例。使用键盘的上下方向键,选中Moonshot AI (Kimi K2.5)并回车。

在这里插入图片描述

认证方式我们选择第一项,即标准的Kimi API key (.ai)

在这里插入图片描述

系统会询问你如何提供这个秘钥,选择Paste API key now,意思是现在直接在终端里粘贴。

在这里插入图片描述

在出现的提示行 Enter Moonshot API key 后面,鼠标右键或者使用快捷键粘贴你之前申请好的 API Key,然后按下回车键确认。

在这里插入图片描述

在选择默认模型时,直接保持选中的Keep current (moonshot/kimi-k2.5)不动即可。

在这里插入图片描述

接下来的几个步骤是一些扩展功能的配置,为了尽快完成基础搭建,我们可以暂时略过:
在选择 Select channel 时,移动到最下方选择Skip for now

在这里插入图片描述

在选择 Search provider 时,我们可以顺手选择Kimi (Moonshot),让它具备联网搜索的能力。

在这里插入图片描述

系统询问是否现在配置 Configure skills now?,选择绿色的No

在这里插入图片描述

询问是否启用 Enable hooks?,依然选择Skip for now

在这里插入图片描述

经过这一系列问答,配置终于完成。终端会打印出 Control UI 的控制台网址以及专门为你生成的安全访问 Token。

在这里插入图片描述

第四步:启动网关服务并进入可视化界面

通常配置完成后,我们需要手动把网关服务跑起来。使用以下命令启动服务,并指定监听端口为 18789:

openclaw gateway --port18789

随后,你会在终端看到不断刷新的日志,这意味着网关已经成功绑定端口并开始监听请求了。

在这里插入图片描述
http://服务器IP:18789 

在地址栏输入 http://127.0.0.1:18789/(如果是在服务器上,请把 IP 换成你服务器的公网 IP)。
回车之后,一个聊天页面就会呈现在你眼前。你现在可以直接在输入框里跟你的 AI 助手聊天。

在这里插入图片描述

二、Windows 系统环境安装

相对于 Linux 的纯命令行,Windows 的安装过程会更加符合普通用户的直觉,我们将结合图形化安装包和系统命令行来共同完成部署。

第一步:下载并安装 Node.js 运行库

不管是在什么系统上,打好 Node.js 这个地基永远是第一步。

首先,打开你的浏览器,访问 Node.js 的官方网站主页,点击屏幕中央非常醒目的绿色大按钮Get Node.js

在这里插入图片描述

页面跳转后,由于你是 Windows 用户,直接点击左侧的Windows Installer (.msi)按钮,下载对应的安装包到你的本地电脑上。

在这里插入图片描述

找到刚才下载好的 .msi 后缀的安装文件,双击启动它。在欢迎界面的右下角,直接点击Next

在这里插入图片描述

阅读最终用户许可协议,勾选左下角的I accept the terms in the License Agreement,然后继续点击 Next。

在这里插入图片描述

接下来是选择安装路径。可以点击 Change 按钮修改到 D 盘或者 E 盘,然后点击 Next。

在这里插入图片描述

在 Custom Setup 安装这个界面,不需要做任何修改,保持默认勾选的所有组件,直接点击 Next。

在这里插入图片描述

当你看到名为 Tools for Native Modules 的界面时,请一定要勾选屏幕中间的那个框:“Automatically install the necessary tools…”。如果不勾选这个,后续你在安装某些复杂的开源库时会疯狂报错,这能帮你省去无尽的麻烦!勾选完毕后点击 Next。

在这里插入图片描述

一切就绪,点击Install按钮,静静等待进度条跑完。

在这里插入图片描述

看到 Completed 界面后,点击Finish按钮结束整个图形化安装过程。

在这里插入图片描述

为了确认 Node.js 确实已经安装进了你的系统环境变量中,请按下键盘上的 Win + R 快捷键,输入 cmd 并回车调出黑色命令行窗口。在里面输入:

node -v 

如果能正确打印出类似于 v24.13.0 这样的版本号,就说明大功告成了。

在这里插入图片描述

第二步:在 Windows 终端全局安装 OpenClaw

请打开 PowerShell 或者 CMD 终端(为了防止权限问题,强烈建议鼠标右键选择“以管理员身份运行”)。然后在里面输入以下命令:

npm i -g openclaw 

这个过程会从远端服务器拉取大量的代码包,等待一到两分钟,直到出现 added xxx packages 的字样,安装就完成了。

在这里插入图片描述

第三步:启动交互式配置向导

和 Ubuntu 系统的流程类似,我们也需要告诉 Windows 上的 OpenClaw 它该连接哪家的大模型。

在刚才的终端中输入初始化命令:

openclaw onboard 
在这里插入图片描述

认真阅读屏幕上出现的安全风险提示说明,由于我们清楚自己在做什么,果断选择绿色的Yes继续。

在这里插入图片描述

在选择配置模式时,为了节省时间,我们依然选择第一项QuickStart快速模式。

在这里插入图片描述

这一次,我们换一个模型供应商来演示。使用方向键找到并选中MiniMax,这款模型在处理长文本和逻辑推理方面也有着不俗的表现。

在这里插入图片描述

进入具体的认证方式选择,为了保证连接的稳定性,请选择带有国内节点标识的MiniMax M2.5 (CN)选项。

在这里插入图片描述

系统询问如何输入 API 秘钥,选择Paste API key now准备直接粘贴。

在这里插入图片描述

此时把你在 MiniMax 开放平台申请的秘钥文本复制过来,在终端里右键点击即可粘贴,然后按下回车。

在这里插入图片描述

默认模型设置这一步,不需要修改,保持高亮的Keep current (minimax-cn/MiniMax-M2.5)选项并回车。

在这里插入图片描述

后续的高级配置选项,针对新手我们先全部跳过,等熟悉了之后再回来研究:
接入渠道选择Skip for now

在这里插入图片描述

搜索引擎服务选择Skip for now

在这里插入图片描述

是否配置技能选择No

在这里插入图片描述

是否启用自动化钩子选择Skip for now

在这里插入图片描述

等待一会,你会看到 Gateway 网关服务已经成功安装,并列出了一系列本地存储路径。

在这里插入图片描述

第四步:一键孵化并访问 Web 控制台

向导进行到最后,会问你打算如何孵化你的机器人。请选择中间那一项Open the Web UI

在这里插入图片描述

选择之后,你会看到终端开始疯狂地吐出各种后台运行日志,这表明你的私有大模型网关正在全力运转。

在这里插入图片描述

与此同时,你的 Windows 默认浏览器会自动弹出一个新标签页,网址指向 http://127.0.0.1:18789。展现在你面前的便是一个本地 AI 聊天控制台。打个招呼,开始探索 OpenClaw 带来的无限自动化潜能吧!

在这里插入图片描述


定位上文

日期:2025年3月11日
专栏:OpenClaw

Read more

深度解析 GitHub Copilot Agent Skills:如何打造可跨项目的 AI 专属“工具箱”

前言 随着 GitHub Copilot 从单纯的“代码补全”工具向 Copilot Agent(AI 代理) 进化,开发者们迎来了更高的定制化需求。我们不仅希望 AI 能写代码,更希望它能理解团队的特殊规范、掌握内部工具的使用方法,甚至在不同的项目中复用这些经验。 Agent Skills(代理技能) 正是解决这一痛点的核心机制。本文将深入解析 Copilot Skills 的工作原理,并分享如何通过软链接(Symbolic Link)与自动化工作流,构建一套高效的个人及团队知识库。 一、 什么是 Agent Skills? 如果说 Copilot 是一个通用的“AI 程序员”,那么 Skill(技能) 就是你为它配备的专用工具箱。 它不仅仅是一段简单的提示词(Prompt),而是一个包含元数据、指令和执行资源的标准文件夹结构。当

By Ne0inhk
【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型

【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型

系列篇章💥 No.文章1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合11【AI大模型前沿】Qwen2.5-Omni:

By Ne0inhk
【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

1. 简介 Step 3.5 Flash(访问官网)是我们目前最强大的开源基础模型,专为提供前沿推理与智能体能力而设计,同时具备卓越的效率。基于稀疏混合专家(MoE)架构,它每处理一个token仅激活1960亿参数中的110亿。这种"智能密度"使其推理深度可比肩顶级闭源模型,同时保持实时交互所需的敏捷性。 2. 核心能力 * 高速深度推理:聊天机器人擅长阅读,而智能体必须快速推理。通过三路多token预测(MTP-3)技术,Step 3.5 Flash在典型使用场景中实现100-300 tok/s的生成吞吐量(单流编码任务峰值达350 tok/s),能即时响应复杂的多步推理链条。 * 编码与智能体的强力引擎:Step 3.5 Flash专为智能体任务打造,集成可扩展的强化学习框架驱动持续自我进化。其SWE-bench Verified通过率74.4%,Terminal-Bench 2.0通过率51.

By Ne0inhk