OpenClaw 安装与配置API教程(Mac电脑,超详细喂饭)

基于:OpenClaw Version 2026.2.26,本文完整记录了OpenClaw在MacOS系统上的完整安装部署过程,其实并不难,一步步照着走,就能装起来。本文已经对安装的每一步都做了截屏,可谓喂饭级教程。祝大家每个人都可以顺利获得一只自己的🦞。

0. 安装前准备:检查 Node.js 环境

OpenClaw 依赖 Node.js 运行,安装前先确认一下本机是否已有 Node.js(版本需要 22 或以上)。

在终端输入:

node --version

看到版本号(如 v22.x.x → 正常,直接跳到下一步安装 OpenClaw。

看到 command not found → 说明还没装 Node.js,先按以下步骤安装:

第一步:安装 Homebrew(如果已有则跳过)

which brew || /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

如果已经安装过 Homebrew, which brew 会直接打印路径,自动跳过安装。

第二步:用 Homebrew 安装 Node.js

brew install node

安装完成后再运行 node --version,看到版本号即可继续。

⚠️ Node.js 版本需要 22 或以上,版本太低可运行 brew upgrade node 升级。

1.安装OpenClaw

在Mac机上安装龙虾(OpenClaw🦞)非常简单,只需要一条指令。

打开Mac电脑的终端工具,在命令行输入一条指令,敲回车运行(确保Mac已联网,最好开个🪜,下载一些包可能速度更快一些):

# 安装龙虾

npm i -g openclaw

# 初始化配置

openclaw onboard --install-daemon

(安装过程中如遇到问题,可以随时截图问ChatGPT等AI工具,帮助排障,一般都能快速解决)

安装完成后,会看到这样的提示界面,说明🦞已经装好了。下图所示,版本号是最新的2026.2.26:

2.配置OpenClaw(Step by Step)

龙虾安装完成后,就进入配置界面,一步步按引导完成即可:

这句话是,它在提醒你:

这个服务默认是“个人电脑本地用”的,如果你打算开放给别人访问(比如局域网 / 服务器部署),需要额外做安全设置。

如果你只是:

  • 在自己 Mac 上本地运行,自己个用
  • 不对公网开放

选 Yes 就可以。

回车,继续往下走

这个是在让你选择 安装/初始化模式(Onboarding mode)

QuickStart(推荐新手)

快速开始模式 以后可以用 openclaw configure 再详细配置

适合:

  • 第一次安装
  • 想先跑起来看看
  • 不想手动填一堆配置

它会:

  • 自动生成默认配置文件
  • 用最安全的本地模式启动
  • 之后你可以再改模型、API key 等

⚪ Manual

手动模式

适合:

  • 已经清楚 provider / 模型怎么配
  • 需要自定义端口
  • 需要特殊网络或多用户部署
  • 做生产环境部署

这里,我们先选QuickStart,先采用大多数OpenClaw默认配置。后面再根据需要调整配置

下一步,就是选择模型厂商了。

OpenClaw支持的模型厂商很多,几乎市面上所有主流的模型都有。如果你已经开通了模型厂商的API KEY,可以选择对应的模型厂商。MetaChat(https://metachat.fun)作为一站式AI模型聚合平台,已经聚合了所有主流的AI模型,包括ChatGPT系列、Claude系列、Gemini系列、Grok、DeepSeek、Kimi、Miminmax、GLM等。可以实现一个URL接入,切换调用30+模型。

我们如果想把MetaChat API配置到龙虾里面,需要按住向下键,找到Custom Provider (Any OpenAI or Anthropic compatible endpoint)

在BaseURL处,填入MetaChat的API接入点(OpenAI兼容模式):

https://llm-api.mmchat.xyz/v1

下一步提示输入KEY的方式,选“Paste API key now

接下来,输入你的MetaChat API KEY

API KEY获取方式:登录MetaChat(https://metachat.fun)后,点击左下方头像区域,在弹出界面中,进入API 管理,点击“新建密钥”,生成你的API密钥即可,点击复制按钮可复制,那串"sk-live..."开头的就是你的API KEY。

接下来,选择接入点的兼容协议(选OpenAI兼容)

接下来,输入Model ID(MetaChat支持几乎所有主流的LLM,可以根据需要配置,这里,我们以GPT 5.2为例,具体支持的模型列表,请参见API文档:https://metachat.apifox.cn):

输入Model ID:gpt-5.2(注意全部小写),等待它verify,看到提示verfication successful说明配置成功了。

然后,给这个接入点ID起个别名,可以输入:metachat,回车

然后是模型别名,可以不填,也可以填一个你喜欢的别名:

接下来就是选通信渠道了,首选telegram,国内用户推荐使用feishu:

我们先选择飞书,然后回车,接下来会询问是否安装飞书插件。选download

然后开始下载飞书插件,等待安装完成。

安装完成后,要配置飞书渠道信息,这个要到飞书开放平台上去完成配置:

以下是飞书上配置聊天机器人的详细过程

进入飞书开放平台:open.feishu.cn,进开发者后台

https://open.feishu.cn/app?lang=zh-CN

点击创建企业自建应用

输入应用名称(自己随便起一个喜欢的),应用描述,有喜欢的头像图标也可以上传一个,点创建。

应用创建成功之后,就可以获得应用的APPID和APP Secret等信息。点击“凭证与基础信息”查看。

然后是给这个机器人配置权限(主要用于收发消息,访问文件等,可以根据需要增减)

OpenClaw官方给了一段权限代码,实际配置的时候,可以通过批量导入的方式,直接导入这些代码一下就配置好了。

{
  "scopes": {
    "tenant": [
      "aily:file:read",
      "aily:file:write",
      "application:application.app_message_stats.overview:readonly",
      "application:application:self_manage",
      "application:bot.menu:write",
      "cardkit:card:read",
      "cardkit:card:write",
      "contact:user.employee_id:readonly",
      "corehr:file:download",
      "event:ip_list",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:bot_access",
      "im:message",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message:readonly",
      "im:message:send_as_bot",
      "im:resource"
    ],
    "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
  }
}

点击,下一步,确认新增权限。点击申请开通

然后,是给这个应用开通“机器人”能力。因为刚刚导入权限的时候,有些权限是属于机器人的能力,所以导入权限完成后,飞书已经自动添加了“机器人”这个能力。

这时候,我们可以切回到OpenClaw的安装界面,完成一些信息输入了。把前面飞书开放平台获得App ID,App Secret输入,回车。然后OpenClaw会做一个连接测试,这里显示已经connected。如果用国内的飞书选择feishu.cn,用海外的Lark,选Lark

然后 群聊响应策略(Group chat policy) 的设置,这里按默认走,接下来会需要输入groupid,因为我们还没有创建群组,直接回车跳过就行。

接下来是Skill的配置,点击确认往下走

有些Skill的安装,需要依赖。这里我们可以先忽略,等后面用的时候再配置,先尽快完成龙虾的配置

按一下空格键,选中“Skip for now” 回车

接下来几个是API的配置,如果有可以配置上,没有就先跳过

接下来是Hooks配置,这个我们第一次安装,可以先选择跳过,等以后有需要随时可以开启

空格键,选择Skip for now,跳过

接下来就是安装核心服务Gateway了:

几分钟,Gateway就安装好了,接下来询问你启动哪个客户端

TUI是Teminal UI,还是在命令行里面,官方最推荐这个

喜欢通过浏览器访问的可以选择第二个 Open the Web UI

这里,我们先选TUI,让OpenClaw先跑起来。直接回车。看到龙虾OpenClaw已经启动了。看到了Wake up, my friend。

由于龙虾最早的版本对自定义模型provider的配置考虑的是对本地部署小模型的支持类似Ollama的方案,所以,上下文长度和最大输出token的大小设置的都非常小,达不到龙虾最新版本的要求,因为启动起来会报错。

我们需要手动修改一下这个值,才能使用MetaChat的模型

一键安装30+MetaChat模型,包括:

命令行执行:

export METACHAT_API_KEY="你的APIKey" && curl -fsSL https://raw.githubusercontent.com/metachat2026/support/main/openclaw/setup-metachat-openclaw.js | node

// ========== 模型清单(2026-03-06 更新)==========

// OpenAI 系列

openai: [

{ id: 'gpt-5.3-codex', name: 'GPT Codex 5.3' },

{ id: 'gpt-5.2', name: 'GPT-5.2' },

{ id: 'gpt-5.2-pro', name: 'GPT-5.2 Pro' },

{ id: 'gpt-5', name: 'GPT-5' },

{ id: 'gpt-5-mini', name: 'GPT-5 Mini' },

{ id: 'gpt-5-nano', name: 'GPT-5 Nano' },

{ id: 'gpt-4.1', name: 'GPT-4.1' },

{ id: 'gpt-4.1-mini', name: 'GPT-4.1 Mini' },

{ id: 'gpt-4.1-nano', name: 'GPT-4.1 Nano' },

{ id: 'gpt-4o', name: 'GPT-4o' },

{ id: 'gpt-4o-mini', name: 'GPT-4o Mini' }

],

// Claude 系列

claude: [

{ id: 'claude-opus-4-6', name: 'Claude Opus 4.6' },

{ id: 'claude-opus-4-5-20251101', name: 'Claude Opus 4.5 (2025-11-01)' },

{ id: 'claude-sonnet-4-6', name: 'Claude Sonnet 4.6' },

{ id: 'claude-sonnet-4-5-20250929', name: 'Claude Sonnet 4.5 (2025-09-29)' },

{ id: 'claude-haiku-4-5-20251001', name: 'Claude Haiku 4.5 (2025-10-01)' },

],

// Google Gemini 系列

gemini: [

{ id: 'gemini-3.1-pro-preview', name: 'Gemini 3.1 Pro' },

{ id: 'gemini-3-pro-preview', name: 'Gemini 3 Pro' },

{ id: 'gemini-3-flash-preview', name: 'Gemini 3 Flash' },

{ id: 'gemini-2.5-pro', name: 'Gemini 2.5 Pro' },

{ id: 'gemini-2.5-flash', name: 'Gemini 2.5 Flash' },

],

// Grok 系列

grok: [

{ id: 'grok-4-1-fast-non-reasoning', name: 'Grok 4.1 Fast (Non-reasoning)' },

{ id: 'grok-4-1-fast-reasoning', name: 'Grok 4.1 Fast (Reasoning)' },

{ id: 'grok-4-fast', name: 'Grok 4 Fast' },

{ id: 'grok-code-fast-1', name: 'Grok Code Fast 1' },

],

// 其他模型

others: [

{ id: 'minimax-m2.1', name: 'MiniMax M2.1' },

{ id: 'kimi-k2.5', name: 'Kimi K2.5' },

{ id: 'glm-4.7', name: 'GLM 4.7' },

],

如果你更喜欢手动修改,也可以使用手动修改方法:

找到 ~/.openclaw/openclaw.json ,编辑models里面的上下文长度和输出值

改成:上下文窗口40万,最大输出token128000

保存,退出。

执行命令:openclaw gateway restart 重启一下龙虾服务

这时,龙虾就完全配置好了。我们启用一下命令行客户端:

执行:openclaw tui

然后说句hello给它,它回复了。第一句话就是给它起个名字吧~。好了剩下的,就好办了。因为你已经跟你的龙虾联系上了,后面有什么事不用自己再搞配置了,直接丢给它让它想办法。比如,添加更多的MetaChat模型,可以让它自己弄

我们再把飞书最后一点配置完,看看能不能通过飞书跟它聊上

飞书里面还要做一个最后的配置就是订阅和事件的配置:

在事件与回调这里,配一下订阅方式为:长连接。添加接收消息的事件

这时候,我们就可以在飞书上发布应用了。点击上方的“创建版本”,输入版本号,更新说明,点下方保存,在弹出对话框中点击“确认发布”,这个机器人就上线了。

在飞书消息上方的搜索框输入“龙虾哥”,就能看到你创建的这个机器人了

点击“龙虾哥🦞”进入对话,你就可以跟你的openclaw对话了

第一次发消息,需要做一下配对批准

把最后一句命令复制出来。openclaw pairing approve feishu xxxx(这个码每次都不一样)

然后在本机命令行运行,就approve了

理论上,所有的配置都搞完了,可以通过飞书跟龙虾对话了

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,