OpenClaw(MACOS 安装部署)

OpenClaw(MACOS 安装部署)

一、介绍:

开源免费 · 清理收件箱、发送邮件、管理日历、办理登机手续。通过飞书、WhatsApp、Telegram 或任何你常用的聊天应用。

Mac、Windows 或 Linux。Anthropic、OpenAI 或本地模型。默认私有——你的数据属于你自己。

通过飞书、WhatsApp、Telegram、Discord、Slack 或 iMessage 与它对话。支持私聊和群聊。

记住你的一切并成为独一无二的你的 AI。你的偏好、你的上下文、你的 AI。

它可以浏览网页、填写表单、从任何网站提取数据。

读写文件、运行 Shell 命令、执行脚本。完全访问或沙箱模式——由你选择。

使用社区技能扩展或自己构建。它甚至可以自己编写技能。

二、安装 OpenClaw:

2.1 官方推荐的安装方式

安装脚本会自动处理 Node.js 检测、安装和初始化引导(Onboarding),是官方推荐的安装方式:

curl -fsSL https://openclaw.ai/install.sh | bash

安装过程中可以配置模型,也可以跳过,安完之后再配置。

出现上面的界面,带有http://127.0.0.1:18789,就是安装完成了。

2.2 使用镜像安装方式

# 自动安装 Node.js 和所有依赖(使用国内镜像) curl -fsSL https://clawd.org.cn/install.sh | bash -s -- --registry https://registry.npmmirror.com

三、模型配置

3.1 手动执行方式

这是最简单安全的方式,向导会帮你一步步重新配置,自动覆盖旧配置。

openclaw onboard

选择yes,我知晓是个人使用的,不做其他限制。

选择QuickStart快速开始。

选择Use existing values 选择使用存在的配置。

这里我们选择Custom Provider自定义提供商。

输入自定义提供商的Base URL。

输入API key,这个是在自定义提供商里面创建的,对应的是密钥。

选择端点兼容性,我这里选择的是OpenAI-compatible,适配openai格式的。

输入模型ID

输入端点ID,这里是他根据模型提供商的域名自动生成的,一般无需改动,但这里要记一下(例如 https://dashscope.aliyuncs.com/compatible-mode/v1),后面我们设置上下文大小以及最大tokens时,要用到。

选择channel,这里我们先跳过,选择Skip for now。

是否配置技能,这里还是选择先不配置,选择No。

是否配置hooks,选择Skip for now。

配置完成重启openclaw.

如果OpenClaw在配置自定义模型提供商时,默认的上下文窗口和最大Tokens参数会过于小,导致无法成功调用,我们需要在终端执行以下命令:

PS:注意需要调整上面要大家记住的端点ID,我的是custom-claude-chiddns-com,按实际的进行替换

# 设置上下文窗口、设置最大tokens openclaw config set 'models.providers.custom-claude-chiddns-com.models[0].contextWindow' 400000 openclaw config set 'models.providers.custom-claude-chiddns-com.models[0].maxTokens' 128000 # 查询配置 openclaw config get 'models.providers.custom-claude-chiddns-com.models[0]' 

到这里我们就完成全部安装以及自定义模型配置。

3.2 直接编辑配置文件

打开配置文件

vim ~/.openclaw/openclaw.json
{ "provider": "aliyun", "apiKey": "sk-xxxxxxxxxxxxxxxxxxxx", "model": "qwen-plus", // ... 其他配置 }

修改 model 的值,保存并退出.

重启 OpenClaw 网关使配置生效:

openclaw gateway restart

3.3 使用环境变量临时覆盖

如果你只是想临时测试某个模型,不想修改永久配置,可以用环境变量启动网关:

OPENCLAW_MODEL=qwen-long openclaw gateway start

这样本次启动会使用 qwen-long,但配置文件中的值不会被改变。

四、验证安装

4.1 检查服务状态

# 查看网关运行状态 openclaw gateway status # 全面诊断检查(配置、连接、权限等) openclaw doctor # 查看整体状态 openclaw status

4.2 访问控制界面

终端环境(无桌面 / 服务器,推荐):

# 通过 TUI 在终端中直接管理 openclaw tui

桌面环境:

# 启动 Web 控制台 openclaw dashboard

或在浏览器中访问:http://127.0.0.1:18789/

4.3 前台调试运行

如需调试,可在前台启动网关查看实时日志:

openclaw gateway --port 18789

五、核心文件与目录

路径

说明

~/.openclaw/openclaw.json

主配置文件(JSON5 格式)

~/.openclaw/workspace

代理工作空间

~/.openclaw/.env

环境变量文件(存放 API Key 等敏感信息)

环境变量

可通过环境变量覆盖默认路径:

变量

说明

OPENCLAW_HOME

OpenClaw 主目录

OPENCLAW_STATE_DIR

状态数据存储目录

OPENCLAW_CONFIG_PATH

配置文件路径

六、基础配置说明

配置文件 ~/.openclaw/openclaw.json 采用 JSON5 格式,缺失时使用安全默认值。可通过以下方式管理配置:

# 通过向导修改配置 openclaw configure # 查看当前配置 openclaw config get

最小配置示例:

{   "agents": {     "defaults": {       "workspace": "~/.openclaw/workspace"     }   } }

配置热更新

OpenClaw 支持混合重载模式

  • 安全变更(如渠道设置)— 即时热更新,无需重启
  • 基础设施变更(如端口、认证)— 需要重启网关

常用命令速查:

命令

说明

openclaw onboard

运行引导向导

openclaw gateway restart

重新启动网关

openclaw gateway status

查看网关状态

openclaw dashboard

打开 Web 控制台

openclaw doctor

诊断检查

openclaw status

查看整体状态

openclaw logs --follow

实时查看日志

openclaw channels login

登录聊天渠道

openclaw configure

修改配置

openclaw config get

查看当前配置

openclaw agents add

添加额外代理实例

七、服务发布

OpenClaw 服务部署后,有两种服务方式。

一是主动向外连接(如连接Telegram 服务器),

二是被动等待外部连接-入站方式。

入站方式(需要内网穿透): 手机 → 公网地址 → 路由器 → 内网 OpenClaw ↑ 这里需要穿透,因为 OpenClaw 在内网 出站(Telegram Bot)方式(无需穿透): OpenClaw → 主动连接 Telegram 服务器 ← 手机发送消息 ↑ 出站连接,任何设备都能发起
使用场景连接方向是否需要穿透
Telegram 与 OpenClaw 对话OpenClaw → Telegram(出站)❌ 不需要
手机浏览器打开 OpenClaw 网页手机 → OpenClaw(入站)✅ 需要

7.1 服务网络连接-出站方式

特性说明
长轮询 (Long Polling)OpenClaw 持续向 Telegram 服务器询问:"有新消息吗?"
WebhookOpenClaw 注册一个回调地址,但 Telegram 服务器主动推送
连接方向永远是 OpenClaw → Telegram,不是反向

7.2 服务网络连接-入站方式

网页控制台场景: 手机浏览器 ──→ 想访问 192.168.1.100:18789 ↑ 这是内网地址,手机在外网无法直达 必须穿透:手机 ──→ 公网地址 ──→ 路由器 ──→ OpenClaw

openclaw有三种部署方案可选:

方案一:局域网部署

原理:

📱 手机 ←→ WiFi ←→ 💻 电脑(运行OpenClaw服务)

适用场景:

  • 在家办公
  • 手机和电脑在同一WiFi下
  • 快速体验和测试

优点:

  • ✅ 配置最简单,5分钟搞定
  • ✅ 不需要公网IP或服务器
  • ✅ 内网速度快,延迟低
  • ✅ 最安全,不暴露到公网

缺点:

  • ❌ 出门后无法使用
  • ❌ 手机需要连家里WiFi
 方案二:内网穿透

原理:

📱 手机 ←→ 🌍 互联网 ←→ 🔌 穿透工具(frp/Tailscale) ←→ 💻 电脑

适用场景:

  • 外出时也要使用
  • 不想租服务器
  • 需要随时随地访问

优点:

  • ✅ 随时随地可用
  • ✅ 无需公网IP
  • ✅ Tailscale 等方案配置简单
  • ✅ 成本低(Tailscale免费版够用)

缺点:

  • ❌ 需要第三方服务
  • ❌ 电脑需要一直开机
  • ❌ 依赖中转节点稳定性

推荐工具:

  • Tailscale - 零配置虚拟局域网(强烈推荐)
  • frp - 老牌内网穿透工具
  • ngrok - 简单但免费版有限制
  • Cloudflare Tunnel - 自带HTTPS加密

操作步骤:

1)安装 Tailscale

# 安装 curl -fsSL https://tailscale.com/install.sh | sh # 启动并登录 sudo tailscale up # 查看状态 sudo tailscale status

2)配置 OpenClaw 监听局域网

vim ~/.openclaw/openclaw.json
{ "gateway": { "bind": "lan", "port": 18789 } }
openclaw gateway restart

3)手机端连接

  1. 手机安装 Tailscale App,登录同一账号
  2. 获取电脑在 Tailscale 中的 IP(如 100.x.x.x
  3. 手机浏览器访问:http://100.x.x.x:18789
方案三:云服务器中转(生产级)

原理:

📱 手机 ←→ 🌍 互联网 ←→ ☁️ 云服务器(OpenClaw) ←→ 💻 电脑(Claude)

适用场景:

  • 多人团队共享
  • 要求高可用
  • 电脑不方便长开机
  • 多台电脑协同

优点:

  • ✅ 最稳定可靠
  • ✅ 支持多设备
  • ✅ 可配置负载均衡
  • ✅ 独立部署,灵活性强

缺点:

  • ❌ 需要租服务器(成本约50-100元/月)
  • ❌ 需要一定运维知识
  • ❌ 配置相对复杂

Read more

【前端基础】HTML + CSS + JavaScript 快速入门(一):HTML 详解

【前端基础】HTML + CSS + JavaScript 快速入门(一):HTML 详解

【前端基础】HTML + CSS + JavaScript 快速入门(一):HTML 详解 我的主页:寻星探路个人专栏:《JAVA(SE)----如此简单!!! 》《从青铜到王者,就差这讲数据结构!!!》 《数据库那些事!!!》《JavaEE 初阶启程记:跟我走不踩坑》 《JavaEE 进阶:从架构到落地实战 》《测试开发漫谈》 《测开视角・力扣算法通关》《从 0 到 1 刷力扣:算法 + 代码双提升》 《Python 全栈测试开发之路》没有人天生就会编程,但我生来倔强!!! 寻星探路的个人简介: 【前端基础】HTML + CSS + JavaScript 快速入门(一):HTML 详解 摘要:本文是前端开发系列教程的第一篇。我们将从零开始认识 HTML 的基本结构,

By Ne0inhk

[AI提效-52]-豆包 vs 扣子 Coze:一篇看懂字节两大 AI 怎么选

🥊 豆包 vs 扣子 (Coze):字节两大 AI 王牌深度对比 很多用户容易混淆豆包和扣子 (Coze),因为它们都出自字节跳动,且底层都使用了类似的模型技术。但它们的定位、目标用户和核心功能完全不同。 一句话总结: 豆包 (Doubao) 是给你“用”的 AI 助手(类似 ChatGPT),主打日常对话、搜索和娱乐。 扣子 (Coze) 是给你“造”的 AI 工厂(类似 Dify/LangChain),主打零代码开发智能体 (Bot) 和工作流。 一、📊 核心差异总览表 表格 维度豆包 (Doubao)扣子 (Coze)核心定位AI 消费级应用 (ToC)AI 开发平台

By Ne0inhk
AI工具泛滥时代,为什么“能力“越来越不值钱?

AI工具泛滥时代,为什么“能力“越来越不值钱?

文章目录 * 一、一个荒诞的现象:工具民主化与机会不平等 * 二、三个被误读的AI创业神话 * 三、AI创作者的真正壁垒:从"工具使用者"到"商业闭环构建者" * 四、给新手的实战建议:从0到1的行动清单 * 五、关于《脉向AI》栏目 * 六、适合谁看? 一、一个荒诞的现象:工具民主化与机会不平等 2025被称为"AI应用元年",但一个诡异的分化正在发生。 一方面,AI工具从未如此普及。ChatGPT、Midjourney、Claude、Sora、可灵、即梦……每个月都有新的"生产力神器"登上热搜。知识付费市场上,“AI副业课”" prompt工程&

By Ne0inhk
AI: Android 运行ONNX模型

AI: Android 运行ONNX模型

概述       ONNX(Open Neural Network Exchange)模型, Android ONNX Runtime 是微软开源的跨平台推理引擎 ONNX Runtime 在 Android 平台上的应用版本,主要用于在 Android 设备上高效运行机器学习模型。 实现方法 (参考信息来源Grok) 1. 使用 ONNX Runtime ONNX Runtime 是由微软开发的高性能推理引擎,支持在 Android 平台上运行 ONNX 模型。它提供了高效的优化和跨平台支持。 2. 使用 TensorFlow Lite(转换 ONNX 模型) TensorFlow Lite 是 Android 上常用的轻量级深度学习框架。虽然它原生不支持 ONNX 模型,但可以通过转换工具将

By Ne0inhk