跳到主要内容OpenClaw Mac 安装与配置 API 教程 | 极客日志JavaScriptNode.jsAI
OpenClaw Mac 安装与配置 API 教程
介绍在 macOS 系统上安装和配置 OpenClaw 的完整流程。首先检查并安装 Node.js 环境,随后使用 npm 全局安装 OpenClaw。通过命令行初始化配置,选择快速开始模式,接入 MetaChat API 作为模型提供商。接着配置飞书机器人权限、应用凭证及事件订阅,实现消息通知。最后调整模型上下文长度限制并重启服务,即可完成本地 AI 助手部署。
全栈工匠1 浏览 0. 安装前准备:检查 Node.js 环境
OpenClaw 依赖 Node.js 运行,安装前先确认本机是否已有 Node.js(版本需要 22 或以上)。
在终端输入:
node --version
- 看到版本号(如
v22.x.x) → 正常,直接跳到下一步安装 OpenClaw。
- 看到
command not found → 说明还没装 Node.js,先按以下步骤安装:
第一步:安装 Homebrew(如果已有则跳过)
which brew || /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
如果已经安装过 Homebrew,which brew 会直接打印路径,自动跳过安装。
第二步:用 Homebrew 安装 Node.js
brew install node
安装完成后再运行 node --version,看到版本号即可继续。
⚠️ Node.js 版本需要 22 或以上,版本太低可运行 brew upgrade node 升级。
1. 安装 OpenClaw
在 Mac 机上安装 OpenClaw 非常简单,只需要一条指令。
打开 Mac 电脑的终端工具,在命令行输入以下指令,敲回车运行(确保 Mac 已联网):
npm i -g openclaw
openclaw onboard --install-daemon
安装完成后,会看到提示界面,说明 OpenClaw 已经装好。下图所示,版本号是最新的 2026.2.26:

2. 配置 OpenClaw
OpenClaw 安装完成后,就进入配置界面,一步步按引导完成即可:

该服务默认是'个人电脑本地用'的,如果你打算开放给别人访问(比如局域网 / 服务器部署),需要额外做安全设置。如果你只是在自己 Mac 上本地运行,不对公网开放,选 Yes 就可以。
回车,继续往下走。

微信扫一扫,关注极客日志
微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
相关免费在线工具
- RSA密钥对生成器
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
- Mermaid 预览与可视化编辑
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
- Keycode 信息
查找任何按下的键的javascript键代码、代码、位置和修饰符。 在线工具,Keycode 信息在线工具,online
- Escape 与 Native 编解码
JavaScript 字符串转义/反转义;Java 风格 \uXXXX(Native2Ascii)编码与解码。 在线工具,Escape 与 Native 编解码在线工具,online
- JavaScript / HTML 格式化
使用 Prettier 在浏览器内格式化 JavaScript 或 HTML 片段。 在线工具,JavaScript / HTML 格式化在线工具,online
- JavaScript 压缩与混淆
Terser 压缩、变量名混淆,或 javascript-obfuscator 高强度混淆(体积会增大)。 在线工具,JavaScript 压缩与混淆在线工具,online
这个是在让你选择 安装/初始化模式(Onboarding mode)。
QuickStart(推荐新手)
快速开始模式,以后可以用 openclaw configure 再详细配置。
- 自动生成默认配置文件
- 用最安全的本地模式启动
- 之后你可以再改模型、API key 等
Manual
- 已经清楚 provider / 模型怎么配
- 需要自定义端口
- 需要特殊网络或多用户部署
- 做生产环境部署
这里,我们先选 QuickStart,先采用大多数 OpenClaw 默认配置。后面再根据需要调整配置。
OpenClaw 支持的模型厂商很多。如果你已经开通了模型厂商的 API KEY,可以选择对应的模型厂商。MetaChat 作为 AI 模型聚合平台,支持通过一个 URL 接入切换调用多个模型。
如果想把 MetaChat API 配置到 OpenClaw 里面,需要按住向下键,找到 Custom Provider (Any OpenAI or Anthropic compatible endpoint)。
在 BaseURL 处,填入 MetaChat 的 API 接入点(OpenAI 兼容模式):
下一步提示输入 KEY 的方式,选 'Paste API key now'。
接下来,输入你的 MetaChat API KEY。
API KEY 获取方式:登录 MetaChat 后,点击左下方头像区域,在弹出界面中,进入 API 管理,点击'新建密钥',生成你的 API 密钥即可。
接下来,选择接入点的兼容协议(选 OpenAI 兼容)。
接下来,输入 Model ID(MetaChat 支持几乎所有主流的 LLM,可以根据需要配置,具体支持的模型列表请参见 API 文档):
输入 Model ID:gpt-5.2(注意全部小写),等待它 verify,看到提示 verification successful 说明配置成功了。
然后,给这个接入点 ID 起个别名,可以输入:metachat,回车。
然后是模型别名,可以不填,也可以填一个你喜欢的别名:
接下来就是选通信渠道了,首选 telegram,国内用户推荐使用 feishu:
我们先选择飞书,然后回车,接下来会询问是否安装飞书插件。选 download。
安装完成后,要配置飞书渠道信息,这个要到飞书开放平台上去完成配置:
飞书机器人配置流程
进入飞书开放平台:open.feishu.cn,进开发者后台。
输入应用名称(自己随便起一个喜欢的),应用描述,有喜欢的头像图标也可以上传一个,点创建。
应用创建成功之后,就可以获得应用的 APPID 和 APP Secret 等信息。点击'凭证与基础信息'查看。
然后是给这个机器人配置权限(主要用于收发消息,访问文件等,可以根据需要增减)。
{
"scopes": {
"tenant": [
"aily:file:read",
"aily:file:write",
"application:application.app_message_stats.overview:readonly",
"application:application.self_manage",
"application:bot.menu:write",
"cardkit:card:read",
"cardkit:card:write",
"contact:user.employee_id:readonly",
"corehr:file:download",
"event:ip_list",
"im:chat.access_event.bot_p2p_chat:read",
"im:chat.members:bot_access",
"im:message",
"im:message.group_at_msg:readonly",
"im:message.p2p_msg:readonly",
"im:message:readonly",
"im:message:send_as_bot",
"im:resource"
],
"user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
}
}
然后,是给这个应用开通'机器人'能力。因为刚刚导入权限的时候,有些权限是属于机器人的能力,所以导入权限完成后,飞书已经自动添加了'机器人'这个能力。
这时候,我们可以切回到 OpenClaw 的安装界面,完成一些信息输入了。把前面飞书开放平台获得 App ID,App Secret 输入,回车。然后 OpenClaw 会做一个连接测试,这里显示已经 connected。如果用国内的飞书选择 feishu.cn,用海外的 Lark,选 Lark。
然后 群聊响应策略(Group chat policy) 的设置,这里按默认走,接下来会需要输入 groupid,因为我们还没有创建群组,直接回车跳过就行。
有些 Skill 的安装,需要依赖。这里我们可以先忽略,等后面用的时候再配置,先尽快完成龙虾的配置。
按一下空格键,选中'Skip for now' 回车。
接下来几个是 API 的配置,如果有可以配置上,没有就先跳过。
接下来是 Hooks 配置,这个我们第一次安装,可以先选择跳过,等以后有需要随时可以开启。
几分钟,Gateway 就安装好了,接下来询问你启动哪个客户端。
TUI 是 Terminal UI,还是在命令行里面,官方最推荐这个。喜欢通过浏览器访问的可以选择第二个 Open the Web UI。这里,我们先选 TUI,让 OpenClaw 先跑起来。直接回车。看到 OpenClaw 已经启动了。看到了 Wake up, my friend。
由于早期版本对自定义模型 provider 的配置考虑的是对本地部署小模型的支持类似 Ollama 的方案,所以,上下文长度和最大输出 token 的大小设置的都非常小,达不到最新版本的要求,因为启动起来会报错。我们需要手动修改一下这个值,才能使用 MetaChat 的模型。
一键安装 30+ 模型
export METACHAT_API_KEY="你的 APIKey" && curl -fsSL https://raw.githubusercontent.com/metachat2026/support/main/openclaw/setup-metachat-openclaw.js | node
// ========== 模型清单(2026-03-06 更新)==========
// OpenAI 系列
openai: [
{ id: 'gpt-5.3-codex', name: 'GPT Codex 5.3' },
{ id: 'gpt-5.2', name: 'GPT-5.2' },
{ id: 'gpt-5.2-pro', name: 'GPT-5.2 Pro' },
{ id: 'gpt-5', name: 'GPT-5' },
{ id: 'gpt-5-mini', name: 'GPT-5 Mini' },
{ id: 'gpt-5-nano', name: 'GPT-5 Nano' },
{ id: 'gpt-4.1', name: 'GPT-4.1' },
{ id: 'gpt-4.1-mini', name: 'GPT-4.1 Mini' },
{ id: 'gpt-4.1-nano', name: 'GPT-4.1 Nano' },
{ id: 'gpt-4o', name: 'GPT-4o' },
{ id: 'gpt-4o-mini', name: 'GPT-4o Mini' }
],
// Claude 系列
claude: [
{ id: 'claude-opus-4-6', name: 'Claude Opus 4.6' },
{ id: 'claude-opus-4-5-20251101', name: 'Claude Opus 4.5 (2025-11-01)' },
{ id: 'claude-sonnet-4-6', name: 'Claude Sonnet 4.6' },
{ id: 'claude-sonnet-4-5-20250929', name: 'Claude Sonnet 4.5 (2025-09-29)' },
{ id: 'claude-haiku-4-5-20251001', name: 'Claude Haiku 4.5 (2025-10-01)' },
],
// Google Gemini 系列
gemini: [
{ id: 'gemini-3.1-pro-preview', name: 'Gemini 3.1 Pro' },
{ id: 'gemini-3-pro-preview', name: 'Gemini 3 Pro' },
{ id: 'gemini-3-flash-preview', name: 'Gemini 3 Flash' },
{ id: 'gemini-2.5-pro', name: 'Gemini 2.5 Pro' },
{ id: 'gemini-2.5-flash', name: 'Gemini 2.5 Flash' },
],
// Grok 系列
grok: [
{ id: 'grok-4-1-fast-non-reasoning', name: 'Grok 4.1 Fast (Non-reasoning)' },
{ id: 'grok-4-1-fast-reasoning', name: 'Grok 4.1 Fast (Reasoning)' },
{ id: 'grok-4-fast', name: 'Grok 4 Fast' },
{ id: 'grok-code-fast-1', name: 'Grok Code Fast 1' },
],
// 其他模型
others: [
{ id: 'minimax-m2.1', name: 'MiniMax M2.1' },
{ id: 'kimi-k2.5', name: 'Kimi K2.5' },
{ id: 'glm-4.7', name: 'GLM 4.7' },
],
找到 ~/.openclaw/openclaw.json,编辑 models 里面的上下文长度和输出值。
改成:上下文窗口 40 万,最大输出 token128000。
执行命令:openclaw gateway restart 重启一下服务。
这时,OpenClaw 就完全配置好了。我们启用一下命令行客户端:
然后说句 hello 给它,它回复了。第一句话就是给它起个名字吧~。
飞书最后配置
飞书里面还要做一个最后的配置就是订阅和事件的配置:
在事件与回调这里,配一下订阅方式为:长连接。添加接收消息的事件。
这时候,我们就可以在飞书上发布应用了。点击上方的'创建版本',输入版本号,更新说明,点下方保存,在弹出对话框中点击'确认发布',这个机器人就上线了。
在飞书消息上方的搜索框输入'龙虾哥',就能看到你创建的这个机器人了。
点击'龙虾哥🦞'进入对话,你就可以跟你的 OpenClaw 对话了。
把最后一句命令复制出来。openclaw pairing approve feishu xxxx(这个码每次都不一样)。
至此配置完成,可以通过飞书跟 OpenClaw 对话了。