OpenClaw 源码安装(Linux+MAC)、自启动与基础配置手册 (小白必读 带避坑经验总结)

        本文涵盖环境准备、源码安装、自启动配置与基础配置要素说明,以及可能遇到的问题总结,适合喜欢全盘掌控自己管理程序安装的小伙伴,其中包含mac和Linux系统操作说明。

        注:如果是想快速尝鲜可以不考虑各类工具安装位置和环境变量配置,直接命令安装即可,本文不赘述,基本自行命令安装 Node.js ≥ 22   +   Git   即可  核心安装和初始化命令:

# 一键快速安装 Linux 和 macOS 一样 curl -fsSL https://openclaw.ai/install.sh | bash # 使用国内加速镜像 curl -fsSL https://cdn.jsdelivr.net/gh/1186258278/openclawchinesetranslation@main/install.sh | bash # 一键脚本安装后通常会自动启动 openclaw onboard --install-daemon 

零、环境准备(用户目录 + 统一环境变量)

        建议将 Node、Git、pnpm、Python 等安装在用户目录下,并通过统一的环境变量文件管理 PATH 与 OpenClaw 相关变量,以便控制权限和影响范围,避免污染系统路径、便于全局把控与排查。

0.1 约定目录结构(示例)

在用户目录下单独划一块“运行时/工具”目录,例如:

```text ~/Applications/ # 或 ~/.local、~/openclaw-env 等,任选其一统一即可 ├── node/ # Node.js 安装目录 ├── git/ # 可选:Git 独立安装 ├── pnpm/ # 可选:pnpm 独立安装时的 store 等 └── python/ # 可选:Python 运行时(部分插件/构建可能用到) ```

OpenClaw 运行数据与日志单独放到一个“数据目录”,便于备份与排错:

```text ~/openclaw-data/ # 由 OPENCLAW_STATE_DIR 指定 ├── openclaw.json # 或由 OPENCLAW_CONFIG_PATH 指向 ├── logs/ # 统一日志目录(见 0.4、第二节) │ ├── gateway.log # 守护进程 stdout(launchd/systemd 重定向) │ ├── gateway.err.log # 守护进程 stderr │ └── openclaw-YYYY-MM-DD.log # 可选:Gateway 文件日志(JSONL) ├── credentials/ ├── agents/ ├── workspace/ # 或通过 agents.defaults.workspace 指定 └── ... ```

0.2 安装 Node.js(用户目录,≥22)

方式 A:官方二进制解压到用户目录(不依赖 root)

```bash mkdir -p ~/Applications/node cd ~/Applications # 从 https://nodejs.org/ 下载 Linux/macOS 二进制包,解压到 ~/Applications/node # 例如 Linux x64: # curl -sL https://nodejs.org/dist/v22.12.0/node-v22.12.0-linux-x64.tar.xz | tar -xJ -C ~/Applications # mv ~/Applications/node-v22.12.0-linux-x64 ~/Applications/node # macOS ARM64 示例: # curl -sL https://nodejs.org/dist/v22.12.0/node-v22.12.0-darwin-arm64.tar.xz | tar -xJ -C ~/Applications # mv ~/Applications/node-v22.12.0-darwin-arm64 ~/Applications/node export PATH="/Users/OpenClaw/Applications/node/bin:$PATH" node -v # 应 ≥ 22 npm -v ```

方式 B:nvm / fnm(推荐,便于多版本,如果不用多版本不需要安装)

nvm 和通过 nvm 安装的 Node 都在**用户目录**下,不写系统目录、无需 root:

  • nvm 自身:安装在 ~/.nvm/(安装脚本默认即如此)
  • Node版本:通过 nvm install 22 安装的 Node 在 ~/.nvm/versions/node/ 下,由 nvm 统一管理、切换。
# nvm 安装到 ~/.nvm,不写系统目录 curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash # 按提示在 ~/.zshrc 或 ~/.bashrc 中加入 nvm 加载脚本,然后: source ~/.zshrc # 或 source ~/.bashrc nvm install 22 nvm use 22 node -v

0.3 安装 Git、pnpm、Python(用户目录或 PATH 优先)

  • Git:若系统已有且版本够用,可直接用;否则可从源码或官方包安装到 ~/Applications/git,并将 ~/Applications/git/bin 加入 PATH。
    • Corepack:pnpm 由 Node 自带的 corepack 管理,可执行文件在当前 Node 的 bin 目录里(与 nodenpm 同目录)。不会自动改你的 shell 配置:需要把 Node 的 bin 目录 加入 PATH(例如解压到 ~/Applications/node 时加 export PATH="$HOME/Applications/node/bin:$PATH"),pnpm 才能用。若 Node 是系统包管理器或 nvm 装的,通常已配好 PATH;若是手动解压 Node,需自己在 ~/.zshrc 里加 Node 的 bin。
    • 独立脚本:默认安装到用户目录(如 ~/.local/share/pnpm),脚本会在安装结束时把 PNPM_HOME 和对应 bin 写入 ~/.zshrc / ~/.bashrc,即会自动配置 PATH;新开终端即可用。
  • Python(可选):部分构建/插件可能需要;可用 pyenv 安装到 ~/.pyenv,或官方安装包指定用户目录,并将 bin 加入 PATH。

pnpm:在已安装 Node 的前提下,用 Corepack 或 独立脚本,均在用户目录下,不写系统目录:

corepack enable corepack prepare pnpm@latest --activate # 或:curl -fsSL https://get.pnpm.io/install.sh | sh -pnpm -v

0.4 统一环境变量文件(控制权限与影响范围)

        在用户目录下建一个仅本机使用的环境变量文件,所有 OpenClaw 与工具链相关变量集中在此,便于自启动与终端一致、全局把控。

        创建并编辑(路径可自定,下面以 ~/.openclaw.env 为例):

# ~/.openclaw.env — OpenClaw 与工具链环境(按需取消注释、修改路径) # 工具链 PATH(用户目录优先,避免动系统) export PATH="HOME/Applications/node/bin:PATH" # 若用 nvm,在 shell 配置里 source nvm 即可,此处可不写 PATH # OpenClaw 状态与配置(统一数据与日志到同一根目录) export OPENCLAWSTATEDIR="{OPENCLAW_STATE_DIR:-HOME/openclaw-data}" export OPENCLAWCONFIGPATH="{OPENCLAW_CONFIG_PATH:-OPENCLAWSTATEDIR/openclaw.json}" # 可选:Gateway 端口、Token 等 # export OPENCLAWGATEWAYPORT=18789 # export OPENCLAWGATEWAYTOKEN="your-token" `

在 shell 配置中加载,使交互式终端与脚本使用同一套环境:

# 写入 /.zshrc (MAC系统) 或/.bashrc (Linux系统) if [ -f "$HOME/.openclaw.env" ]; thenset -a source "$HOME/.openclaw.env" set +a fi 

         之后新开终端即生效;自启动服务也会在下面第二节中通过 EnvironmentFile(systemd)或 EnvironmentVariables(launchd)加载同一文件,保证与终端一致、权限与影响范围可控。

.openclaw.env 与 .zshrc 的使用方式(是否需要每次加载)

方式说明

         ~/.openclaw.env
: 只放环境变量(PATH、OPENCLAWSTATEDIR、OPENCLAWCONFIGPATH 等),供终端与守护进程共用。

         ~/.zshrc(或 /.bashrc):Shell 配置:在这里写 `source/.openclaw.env`,并放补全、OpenClaw 命令补全等;不要把补全或 shell 命令写进 .openclaw.env。



需要每次都手动加载吗?不需要。 每次你新开一个终端,zsh 会自动执行 .zshrc,里面的 source ~/.openclaw.env 会把环境变量加载好,无需再打 source ~/.openclaw.env。守护进程(Gateway):通过 openclaw gateway install 安装后,launchd/systemd 会在进程启动时读取环境(例如从 .openclaw.env),也是自动的。只有这两种情况需要手动执行一次 source ~/.openclaw.env

        在当前已打开的终端里刚改过 .openclaw.env,希望本终端立即生效;

        在脚本里跑 openclaw,且该脚本不会读 .zshrc(例如 cron、某些 CI),需在脚本开头加 source "$HOME/.openclaw.env"



          日常开新终端即可,环境变量会自动带上;改过 .openclaw.env 且想在本终端立刻生效时,再执行一次 source ~/.openclaw.env

0.5 初始化数据目录与统一 logs 目录

首次使用前创建状态目录并统一日志到 logs 子目录(便于排查):

source ~/.openclaw.env # 若尚未在 shell 中加载 mkdir -p "$OPENCLAWSTATEDIR/logs" mkdir -p "$OPENCLAWSTATEDIR/workspace" # 配置文件可在 onboard 时生成,或事先创建空 JSON:echo '{}' > "$OPENCLAWCONFIGPATH" `

        说明: 守护进程(launchd/systemd)会把 Gateway 的 stdout/stderr 重定向到 $OPENCLAW_STATE_DIR/logs/gateway.loggateway.err.log(见第二节)。若还需将 Gateway 的文件日志(JSONL)也落到同一 logs

Read more

AI调参技巧:贝叶斯优化Optuna

AI调参技巧:贝叶斯优化Optuna

AI调参技巧:贝叶斯优化Optuna 📝 本章学习目标:本章聚焦性能优化,帮助读者提升模型效率。通过本章学习,你将全面掌握"AI调参技巧:贝叶斯优化Optuna"这一核心主题。 一、引言:为什么这个话题如此重要 在人工智能快速发展的今天,AI调参技巧:贝叶斯优化Optuna已经成为每个AI从业者必须掌握的核心技能。Python作为AI开发的主流语言,其丰富的生态系统和简洁的语法使其成为机器学习和深度学习的首选工具。 1.1 背景与意义 💡 核心认知:Python在AI领域的统治地位并非偶然。其简洁的语法、丰富的库生态、活跃的社区支持,使其成为AI开发的不二之选。掌握Python AI技术栈,是进入AI行业的必经之路。 从NumPy的高效数组运算,到TensorFlow和PyTorch的深度学习框架,Python已经构建了完整的AI开发生态。据统计,超过90%的AI项目使用Python作为主要开发语言,AI岗位的招聘要求中Python几乎是标配。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开: 📊 概念解析 → 原理推导 → 代

By Ne0inhk
ToDesk 全新 ToClaw,正在把电脑交给AI去操作

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

这两年,AI 工具层出不穷,但大多数产品还停留在“能回答、会生成”的阶段:帮你写一段话、搜一份资料、整理一个思路,真正到了执行层,还是得你自己坐回电脑前,一个软件一个软件地点、一项任务一项任务地做。 这也是很多人对 AI 的真实感受——它会说,但不一定真能干活。而 ToDesk 新上线的 ToClaw,想解决的正是这个问题。 一、ToClaw 是什么? ToClaw 是一款基于 OpenClaw 深度定制、并与远程控制运行时深度结合的 AI 助手。它最大的不同,不只是“懂你说什么”,而是能直接在你的电脑上执行操作。 你只需要一句话,它就可以在电脑端完成对应动作:打开软件、点击按钮、填写表单、拖拽文件、整理资料、生成表格、汇总信息……很多原本需要人守在电脑前操作的工作,现在都可以交给 ToClaw

By Ne0inhk
【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录 写在前面 OpenClaw 是什么? 蓝耘平台是什么?与 OpenClaw 的关系 步骤一:极速安装,一行命令搞定环境 步骤二:启动向导,初始化配置参数 步骤 三:注入灵魂,获取蓝耘MaaS API Key 步骤四:打通渠道,搭建飞书长连接桥梁 步骤五:引擎点火,启动核心网关服务 步骤六:仪表盘检阅,后台状态可视化 步骤七:实战演练,验证智能交互效果 快速排错提示 写在末尾 写在前面 本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。 内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,

By Ne0inhk
《发现了一种本地AI服务远程管理难题与一种加密隧道解决方案!》

《发现了一种本地AI服务远程管理难题与一种加密隧道解决方案!》

现在用着开源大语言模型、Stable Diffusion这类AI工具的人越来越多了,不少开发者都选在自己家或者公司的本地硬件上搭AI服务,比如带显卡的台式机、Linux服务器,还有NAS设备都行。这么弄确实能完全自己掌控隐私,数据也全在自己手里,但麻烦事儿也来了:怎么才能安全又方便地从外面的网络远程访问、管理这些本地的AI服务呢? 以前常用的端口映射办法吧,不安全;要搭VPN的话,步骤又太复杂,一般人搞不定。今天咱们就聊聊用P2P虚拟组网技术做的那种简单好用的解决办法。 本地部署AI后,常见的远程访问需求包括: 1. 状态监控:在外查看服务的CPU/GPU占用、日志和运行状态。 2. 交互操作:远程使用WebUI(如ChatGPT-Next-Web、Stable Diffusion WebUI)进行推理或生图。 3. 文件管理:安全地传输生成的文件或更新模型。 直接通过公网IP+端口暴露服务,相当于将内网服务置于公网扫描之下,极易成为攻击目标。而商用远程桌面软件通常延迟较高,且不适合长期后台服务管理。 一种思路:如果构建加密的虚拟局域网呢? 理想的方案是,让远程设

By Ne0inhk