手把手教你“养龙虾”:OpenClaw本地部署完全指南(Windows/Mac/Linux全兼容)

目录

1.为什么要本地部署?先搞懂这三点

1.数据隐私可控

2.长期零成本

3.断网也能用

2.部署前的“全家桶”准备

3.Windows 11本地部署(最全版本)

第一步:以管理员身份打开PowerShell

第二步:解锁执行策略

第三步:一键安装核心依赖

第四步:验证安装

第五步:配置国内镜像(加速下载)

第六步:全局安装OpenClaw

第七步:初始化配置

第八步:启动服务

第九步:生成访问Token

第十步:访问Web控制台

4.MacOS本地部署(Intel芯片/M芯片通用)

第一步:打开终端

第二步:安装Homebrew(包管理工具)

第三步:安装Node.js 22

第四步:验证安装

第五步:配置国内镜像(可选,但推荐)

第六步:全局安装OpenClaw

第七步:初始化配置

第八步:启动服务

第九步:生成Token并访问

5.Linux本地部署(Ubuntu 20.04+)

第一步:打开终端

第二步:安装Node.js 22和Git

第三步:验证安装

第四步:配置国内镜像(可选)

第五步:全局安装OpenClaw

第六步:初始化配置

第七步:启动服务

第八步:生成Token并访问

6.进阶玩法:对接本地大模型(Ollama+Qwen)

第一步:安装Ollama

第二步:拉取本地模型(推荐Qwen2.5 7B)

第三步:定制模型(扩展上下文窗口)

第四步:重新配置OpenClaw对接本地模型

7.Skill安装:给“龙虾”装技能

核心安全原则:先装安全工具,再装功能插件

常用必备Skill(一键安装)

查看已安装Skill

8.避坑指南(新手必看)

坑1:Node.js版本过低

坑2:端口被占用

坑3:模型上下文窗口过小

坑4:Token泄露

坑5:Skill安装失败


1.为什么要本地部署?先搞懂这三点

在动手之前,咱们先花3分钟搞清楚一个问题:为什么要把OpenClaw装在本地,而不是直接用云端版?

1.数据隐私可控

你的聊天记录、文件内容、API密钥全都留在自己电脑里,不用上传任何第三方服务器。这对处理敏感数据的人来说,是刚需。

2.长期零成本

云端部署虽然方便,但Token消耗起来是真的肉疼——重度用户一天烧掉上百万Token,长期下来不是小数目。本地部署搭配Ollama本地模型,等于一次性投入,终身免费。

3.断网也能用

哪怕家里断网、出差飞机上,只要你电脑有电,OpenClaw就能干活。

2.部署前的“全家桶”准备

不管你是哪个系统,下面这几样东西必须先准备好:

核心凭证:

1.阿里云百炼API-Key(用于调用大模型能力,新用户有免费额度)

2.获取路径:登录阿里云百炼大模型服务平台 → 密钥管理 → 创建API-Key,生成后立即复制保存(关掉页面就看不到了)

辅助工具:

1.浏览器(Chrome/Edge都行)

2.文本编辑器(VS Code或记事本都够用)

3.一个加密记事本(专门存API-Key和Token)

网络要求:

确保网络通畅,能正常下载依赖包(建议提前配好国内镜像,后面有命令)

3.Windows 11本地部署(最全版本)

第一步:以管理员身份打开PowerShell

右键点击开始菜单 → 选择“Windows PowerShell(管理员)”,这一步很重要,否则后面会权限报错。

第二步:解锁执行策略

powershell Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force

输入这行命令,回车,看到没有任何报错就行。

第三步:一键安装核心依赖

powershell # 安装Node.js 22+(OpenClaw运行必须) winget install OpenJS.NodeJS.LTS --version 22.2.0 # 安装Python 3.9(部分Skill依赖) winget install Python.Python.3.9 # 安装Git(拉取代码用) winget install Git.Git

如果winget命令报错,可以去官网手动下载安装:

Node.js官网:https://nodejs.org (选LTS版,安装时勾选“Add to PATH”)

Python官网:https://python.org (选3.9+,安装时勾选“Add Python.exe to PATH”)

第四步:验证安装

powershell node --version  # 应显示v22.x.x npm --version   # 应显示10.x.x python --version  # 应显示Python 3.9.x

如果版本都对,继续下一步。

第五步:配置国内镜像(加速下载)

powershell npm config set registry https://registry.npmmirror.com

这步能让你后面安装快3倍以上。

第六步:全局安装OpenClaw

powershell npm install -g openclaw@latest

等进度条跑完,出现绿色的“added xxx packages”就成功了。

第七步:初始化配置

powershell openclaw init

系统会进入交互式配置界面,按提示操作:

· 选择模型提供商:选“Custom Provider”

· 输入API Base URL:https://dashscope.aliyuncs.com/compatible-mode/v1(阿里云百炼地址)

· 输入API Key:粘贴你刚才保存的百炼API-Key

· 其他选项全部回车默认

第八步:启动服务

powershell openclaw start

看到“Server running on port 18789”的提示,说明启动成功。

第九步:生成访问Token

powershell openclaw start

复制输出的那串长字符串(以oc_开头),保存好。

第十步:访问Web控制台

打开浏览器,输入:

http://localhost:18789/?token=刚才复制的Token

看到OpenClaw的对话界面,恭喜你,Windows版“龙虾”养成功!

4.MacOS本地部署(Intel芯片/M芯片通用)

第一步:打开终端

在“启动台”搜索“终端”,打开。

第二步:安装Homebrew(包管理工具)

bash /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

如果已经装过,这步可以跳过。

第三步:安装Node.js 22

bash brew install node@22 echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc source ~/.zshrc

M芯片的Mac会自动安装ARM版本,不用担心兼容性。

第四步:验证安装

bash node --version npm --version

应该看到v22.x.x和10.x.x。

第五步:配置国内镜像(可选,但推荐)

bash npm config set registry https://registry.npmmirror.com

第六步:全局安装OpenClaw

bash npm install -g openclaw@latest

第七步:初始化配置

bash openclaw init

交互步骤和Windows完全一样,按提示输入阿里云百炼API-Key即可。

第八步:启动服务

bash openclaw start

第九步:生成Token并访问

bash openclaw token generate

浏览器输入http://localhost:18789/?token=你的Token,搞定!

5.Linux本地部署(Ubuntu 20.04+)

第一步:打开终端

第二步:安装Node.js 22和Git

bash curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash sudo apt install -y nodejs git

第三步:验证安装

bash node --version npm --version

第四步:配置国内镜像(可选)

​bash npm config set registry https://registry.npmmirror.com ​

第五步:全局安装OpenClaw

bash npm install -g openclaw@latest

第六步:初始化配置

bash openclaw init

同样是交互式配置,输入阿里云百炼API-Key。

第七步:启动服务

bash sudo openclaw start

Linux下可能需要sudo权限。

第八步:生成Token并访问

bash openclaw token generate

浏览器访问http://你的本地IP:18789/?token=你的Token。

6.进阶玩法:对接本地大模型(Ollama+Qwen)

如果你不想用云端API,想完全本地运行,可以搭配Ollama使用。

第一步:安装Ollama

访问Ollama官网(ollama.com)下载对应系统的安装包,一路下一步。

第二步:拉取本地模型(推荐Qwen2.5 7B)

bash # Windows/Mac/Linux通用 ollama pull qwen2.5:7b

这个模型约4.7GB,显存4GB以上的显卡都能跑。

第三步:定制模型(扩展上下文窗口)

OpenClaw要求上下文窗口≥16000 tokens,默认模型只有4096,需要手动定制:

bash # 创建Modelfile配置文件 echo "FROM qwen2.5:7b PARAMETER num_ctx 32768" > Modelfile # 创建自定义模型 ollama create qwen2.5:7b-32k -f Modelfile

第四步:重新配置OpenClaw对接本地模型

bash openclaw config wizard

这次选择:

· 模型提供商:Custom Provider

· API Base URL:http://127.0.0.1:11434/v1

· API Key:任意输入(比如“ollama”)

· Model ID:qwen2.5:7b-32k

7.Skill安装:给“龙虾”装技能

部署只是第一步,装Skill才是让“龙虾”真正干活的关键。

核心安全原则:先装安全工具,再装功能插件

bash # 安装安全扫描工具 clawhub install skill-vetting

这个工具能从源头拦截恶意插件,强烈建议第一个装。

常用必备Skill(一键安装)

bash # 文件管理器 clawhub install file-manager # 内容摘要 clawhub install summary # 邮件处理 clawhub install email # 定时任务 clawhub install scheduler # 网页自动化 clawhub install web-automation # 数据抓取 clawhub install scraper

安装完成后重启服务生效。

查看已安装Skill

bash clawhub list

8.避坑指南(新手必看)

根据上百位读者的反馈,我整理了最常见的几个坑:

坑1:Node.js版本过低

症状:安装报错“requires Node.js >=22.0.0”

解决:去官网重装最新版,或者用n升级:sudo n 22.0.0

坑2:端口被占用

症状:启动时提示“port 18789 already in use”

解决:关掉其他占用程序,或者改端口:openclaw config set server.port 18790

坑3:模型上下文窗口过小

症状:调用时报错“Model context window too small”

解决:按06部分定制模型,或者修改配置文件增加num_ctx参数

坑4:Token泄露

症状:发现陌生IP访问你的控制台

解决:立即重新生成Token:openclaw token generate --admin,不要把Token截图发群里

坑5:Skill安装失败

症状:clawhub install卡住或报错

解决:检查网络,或从GitHub直接拉取:git clone 技能地址

Read more

DeepSeek V4正式发布!与Gemini 3.1 Pro深度评测:中国开源力量与美国闭源巅峰的正面交锋

DeepSeek V4正式发布!与Gemini 3.1 Pro深度评测:中国开源力量与美国闭源巅峰的正面交锋

2026年3月第一周,中国AI圈期待已久的DeepSeek V4正式发布,与此前两周谷歌推出的Gemini 3.1 Pro形成正面交锋。这不仅是两款旗舰模型的同期竞技,更是中国开源力量与美国闭源巅峰的技术路线对决:DeepSeek V4以“原生多模态+国产芯片深度适配+极致成本控制”杀入战场,而Gemini 3.1 Pro则以“ARC-AGI-2 77.1%推理断层领先+三层思考模式+幻觉抗性跃升”巩固护城河。本文从基准测试、核心架构、多模态能力、成本策略四大维度进行深度技术拆解,为开发者和AI爱好者提供硬核参考。 国内用户可通过聚合镜像平台RskAi(ai.rsk.cn)直接体验Gemini 3.1 Pro,同时等待DeepSeek V4的镜像接入,形成双模型布局——一个应对深度复杂推理,一个满足高性价比国产需求。 一、发布动态:时间线与战略意图 关键信号:DeepSeek V4打破了AI行业长期惯例—

By Ne0inhk

Fish Speech 1.5镜像部署:预加载模型+GPU加速+服务自愈机制详解

Fish Speech 1.5镜像部署:预加载模型+GPU加速+服务自愈机制详解 想快速搭建一个开箱即用的专业级语音合成服务吗?今天我们来聊聊Fish Speech 1.5的镜像部署方案。这个方案最大的特点就是“省心”——模型已经预加载好,GPU加速自动开启,服务挂了还能自己恢复,基本上就是点几下鼠标就能用上高质量的语音合成。 我最近在几个项目里都用到了这个方案,发现它特别适合那些不想折腾环境、希望快速上手的团队。无论是做视频配音、有声书制作,还是开发智能客服语音,这个镜像都能帮你省下大量配置时间。 1. 为什么选择Fish Speech 1.5镜像方案? 如果你之前尝试过部署语音合成模型,肯定知道那是个什么体验:下载几十GB的模型文件、配置复杂的Python环境、调试各种依赖冲突……没个半天时间根本搞不定。 这个镜像方案把这些麻烦事都解决了。我来给你说说它的几个核心优势: 开箱即用,零配置启动 镜像里已经把Fish Speech 1.5模型预加载好了,你不需要自己去下载模型文件。启动容器后,模型就已经在内存里准备好了,直接就能用。我测试过,从启动到能合成第一段语音,

By Ne0inhk

web3是什么,业务应用

Web3(或Web 3.0)是互联网发展的下一个阶段,核心愿景是构建一个去中心化、用户主导、无需信任中介的数字生态。它试图解决当前Web2(社交网络、电商平台等)的核心问题——数据与权力集中在少数大公司手中,让用户真正拥有自己的数字资产和身份。 一、Web3的核心逻辑:从“读/写”到“拥有” * Web1(1990s-2000s):只读互联网(Read-only),用户只能获取信息(如门户网站、早期论坛),数据是静态的。 * Web2(2000s至今):读写互联网(Read-write),用户可以互动(发朋友圈、写博客),但数据与权力归平台所有(比如微信存储你的聊天记录,抖音控制你的推荐算法)。 * Web3(正在演进):读写+拥有互联网(Read-write-own),通过区块链技术让用户直接控制自己的数据、资产和身份(比如用NFT证明你是某件数字艺术品的所有者,用加密货币转账无需银行)。 二、Web3的核心特征

By Ne0inhk

Telegram搜索机器人推荐——查找海量资源,提升信息检索效率

大家好,本文首发于 ZEEKLOG 博客,主要面向需要在 Telegram 中高效检索资源的同学。我结合自己的实测体验,总结了几款实用的搜索机器人与完整操作流程,帮助大家解决“怎么快速找到频道、群组、文件”的痛点。如果你也在为信息筛选耗时头疼,建议耐心读完并亲手试试,收获会很大。觉得有帮助别忘了给个点赞、收藏和关注支持一下 🙂 📚 本文目录 * 使用准备 * 什么是Telegram搜索机器人? * Telegram搜索机器人的核心功能 * 推荐的Telegram搜索机器人 * 如何使用Telegram搜索机器人? * Telegram搜索机器人的应用场景 * 总结 在信息爆炸的时代,如何高效获取自己想要的资源?Telegram搜索机器人为你带来全新解决方案,无需翻找频道、群组,只需输入关键词,即可一键查找海量内容。无论是影视剧、电子书、图片还是优质群组,Telegram搜索机器人都能帮你轻松找到。推荐搜索机器人:@soso、@smss、@jisou 使用准备 1. 能访问外网,不会魔法的同学请参考:这里 2. 安装 Telegram

By Ne0inhk