手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。

OpenClaw

OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。

该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称)

# OpenClaw 是什么?

OpenClaw 是一个开源的个人 AI 助手平台

简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“员工”。

△ OpenClaw 采用模块化设计,其核心架构如图所示

注意:OpenClaw 需要访问不少本地权限和文件。建议找一台没有数据的 Mac 来试水,避免自己的隐私数据泄露。

# 准备工作

在开始之前,请确认你的 Mac 满足以下条件:

macOS Sonoma 或更新版本(推荐使用 Apple Silicon M1及以上芯片,性能会更好)。

流畅的网络环境,必要时可能会需要梯子(部分依赖库需要从 GitHub 下载)。

一颗爱折腾的心,其实很简单,跟着做就行了!不用担心自己是小白,本文会手把手教你成功部署 OpenClaw ,同时还会教你和飞书互联。

官方网站:https://openclaw.ai/

# 官网版本区别

对于新手小白来说,看到官网给出的四个安装方式到底有什么区别?

One-liner:一键脚本安装,最简单、官方推荐(这也是放在第一页的原因)。它会自动检测系统并安装依赖。适合个人用户,想快速在 Mac/Linux 上体验完整功能。缺点是如果你对系统环境有洁癖,脚本方式侵入性太强,不方便后期更新维护。

npm:全局安装方式,需要依赖Node.js 包管理器安装,适合前端开发者或已熟悉 Node.js 的用户(有一定计算机门槛),通过它安装,你知道自己在装什么,依赖了什么,不会弄乱你的开发环境。版本控制方便,更新更容易,本文选用此安装方式。

Hackable:源码安装方式,可任意魔改,下载源代码到本地。适合想要修改核心逻辑、自己写复杂插件、或者给项目提 PR 的人(小白请直接忽略)

macOS:GUI 界面应用,这是一个 Mac 端应用,提供了一个菜单栏图标,原生体验并提供语音交互、快捷指令等原生 Mac 功能。但是它通常是为了配合 CLI(命令行版)使用的,而不是完全替代命令行,想用此应用还是需要先安装前三中任意一个。

经过上面的解释你应该很清楚各个安装方式的区别了,只是想玩玩 OpenClaw 并且懒得装 Node 环境,玩完重装系统也无所谓,那就一键部署选One-liner。如果想把它当主力工具,长期稳定使用,出了问题好修、版本好管、系统干净,那就选 npm 安装。

# 环境配置(npm安装)

OpenClaw 依赖于 Node.js 环境。如果你不懂这是什么,没关系,照着输命令即可。

官方下载地址:

https://nodejs.org/zh-cn/download

1. 复制官网链接到浏览器打开,然后点击macOS 安装程序(.pkg)下载安装包如果你更熟悉用Homebrew下载,那会更方便,官网下载可避免一些未知错误;

2. 然后打开下载后的安装包,按照安装包的直接正常安装即可;

3. 安装完成,点击「关闭」即可;

4. 打开「终端」;

5. 在终端内输入:

sudo npm i -g openclaw 

然后回车,输入开机密码后再回车;

6. 如果出现如图错误,修改 Git 下载协议 (强制使用 HTTPS),复制下方代码到终端,回车执行即可解决;

    git config --global url."https://github.com/".insteadOf ssh://[email protected]/

    7. 重新输入 

    sudo npm i -g openclaw 

    出现如图界面表示安装成功;

    8. 启动 OpenClaw 的初始化向导,输入下方代码,然后回车; 

    openclaw onboard 

    9. 这一步主要是提醒你,使用 OpenClaw 可能会有一些风险。请问你是否继续?按向左方向键 ←,选择 Yes,按 Enter 回车确认;

    10. 选择选择 QiuickStart(快速开始模式),回车;

    11. 这里是配置 AI 模型 API Key,OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费 token,国外模型成本较高,新版本已经支持KIMI K2.5 ,小编以KIMI为例;

    注:其他任意模型均可,也可以用 Ollama 本地运行的 DeepSeek 的蒸馏版,即可免费使用 AI 模型,点击下图查看本地化部署 DeepSeek 教程;

    12.如果没有 KIMI 的API Key,打开下方官方地址注册账号获取API key,KIMI 认证后的账号可以获得15元的免费代金券;

    https://platform.moonshot.cn/console/api-keys

    13.然后复制你的API key,请保存好自己的 API;

    14. 选择Kimi API key (.cn),回车;

    15. 然后输入你的API Key,回车;

    16. 选择保持当前(moonshot/kimi-k2.5),回车;

    17. 接着你会看到选择聊天选择工具的选项。这里你建议先「暂时跳过」,先在终端(Terminal)里把 OpenClaw 跑起来,确认它的 AI 大脑、文件读写权限都正常工作,后面再单独部署;

    18. 这里选择「Yes」,也可以暂不配置选择「No」,后面通过UI界面再进行配置;

    19. 选择「npm」;

    20. 关于技能,你可以先跳过选择此步骤,或者使用空格键您需要的技能,可多选;

    21. 这里可以配置备用 API,如果不想配置就都选「No」即可;

    22. 正在完成最后的启动服务配置,大约30秒左右;

    23. 配置完成,选择「Open the web UI」,打开可视化页面;

    24. 安装完成,浏览器自动打开 Web UI 界面;

    # 把 OpenClaw 接入飞书机器人

    1. 首先进入飞书开放平台。登录成功后,点击创建企业自建应用;

    2. 接着填写应用名称(如 “AppOS-OpenClaw助手”)、应用描述,选择应用图标,点击「创建应用」按钮,进入应用管理页面;

    3. 在添加应用能力中选择「机器人」→ 点击「添加」;

    4. 在开发配置中点击「权限管理」→「开通权限」;

    5. 在搜索框内搜索「im:」勾选全部相关权限名称,最后点击「确认开通权限」;

    6. 点击左侧「云文档」勾选全部相关权限名称,最后点击「确认开通权限」;

    7. 点击顶部「创建版本」按钮;

    8. 简单填写相关内容,然后点击「保存」;

    9. 点击「确认发布」;

    10. 机器人发布完成,开始配置OpenClaw

    11. 为了防止与自带的飞书文件夹冲突,我们直接把之前的先全部删掉,方便后面顺利安装,输入下方代码到终端内,然后回车,输入开机密码执行;

      sudo rm -rf ~/.openclaw/extensions/feishu

      12. 清理完成后,接着下载飞书插件,在终端输入下方代码,然后回车,输入开机密码执行;

        openclaw plugins install @m1heng-clawd/feishu

        13. 正在下载飞书插件,耐心等待即可;

        14. 出现下面界面表示飞书插件安装成功;

        15. 在输入下方输入代码,然后回车,输入开机密码执行;

          openclaw config

          16. 选择「Local (this machine)」,然后回车;

          17. 选择「Channels(渠道)」,然后回车;

          18. 选择「Configure/link(配置链接)」,然后回车;

          19. 选择「Feishu/Lark(飞书)」,然后回车;

          20. 打开飞书开放平台,在「应用凭证」里,复制 AppID 和 AppSecrect;

          21. 在终端对应位置分别输入飞书的 AppID 和 AppSecrect;

          22. 选择「Feishu(feishu.cn)- China 」,然后回车;

          23. 选择「Open - respond in all groups(requires mention)」,然后回车;

          24. 选择「Finished」然后回车;

          25. 选择「Yes」,回车;

          26. 选择「Open...」,回车;

          27. 选择「Continue」,回车;

          28. 配置完成,关闭终端;

          29. 重新打开终端,然后输入下方代码,重启配置;

            openclaw gateway

            30. 打开飞书开放平台,选择「事件与回调」→「订阅方式」→「使用长连接接收事件」→「保存」;

            31. 然后点击同一页面内的「添加事件」;

            32. 在弹出的列表中,搜索并添加 「接收消息」、「消息已读」、「机器人进群」、「机器人被移出群」,最后点击 「确认添加」;

            33. 添加完成后如下图所示;

            34. 点击「权限管理」→搜索「通讯录」→选中「获取通讯录基本信息」→「确认开通权限」;

            35. 配置完成后我们需要重新发布新版本,点击顶部「创建版本」;

            36. 按如图所示输入;

            37. 点击「确认发布」;

            38. 打开手机端「飞书」,搜索机器人的名字,给机器人发消息,如果机器人以AI的方式进行回复,那么恭喜你配置成功(太不容易了)。

            # OpenClaw常用命令

              openclaw onboard #重新进入配置向导openclaw status #查看运行状态openclaw health #健康检查openclaw gateway start #启动服务openclaw gateway stop #停止服务openclaw update #更新到最新版本openclaw doctor #诊断问题

              openclaw uninstall #卸载 OpenClaw

              # OpenClaw 技能库

              最后再推荐两个 OpenClaw 技能库,它就是给你的 AI 装上一堆「技能插件」,让它从“动嘴皮子”变成“真能干活”。

              1. 宝藏仓库地址 GitHub 地址:

              https://github.com/VoltAgent/awesome-openclaw-skills

              里面包含内容众多,可根据自身需求进行安装;

              2. ClawHub,精英特工的技能平台。

              官方网站:https://clawhub.ai/

              # 写到最后,我想说点什么

              其实 OpenClaw 刚发布时,就有朋友催我出教程。但我当时犹豫了很久,甚至想劝退大家。

              为什么?

              因为它太「初级」了,OpenClaw 代码是由 AI 生成的,这也导致了它存在很多 Bug,安全性也没有得到验证,而且运行起来非常消耗 Token。

              对大多数人来说,它现阶段更像是一个昂贵的玩具,而非能完全承载日常工作的自动化神器。

              但今天我为什么还是决定写这篇教程?

              因为我意识到,不完美,不代表没有价值。

              OpenClaw 代表了未来 AI 操控电脑的雏形,是通往全智能 AI 的必经之路。我也许无法向你推荐一个完美的成品,但我希望能带你体验一种全新的人机交互方式。

              在这个 AI 更新快到令人眩晕的时代,对于我们普通人不必成为造车的工程师,但一定要做最早学会驾驶的司机。

              希望我们持续保持好奇,紧跟这个时代,

              和 AI 一起,

              无限进步!

              # 参考文章

              https://docs.openclaw.ai/zh-CN

              https://cloud.tencent.com.cn/developer/article/2626160

              https://cloud.tencent.com/developer/article/2626151

              https://developer.aliyun.com/article/1709772

              https://cloud.tencent.com/developer/article/2624973

              Read more

              怒怼行业乱象:数据大模型+低代码,别再用“伪智能”收割技术人!

              今天不想唱赞歌,只想扒一扒数据大模型和低代码这两个赛道融合背后的真相。当下打开ZEEKLOG、掘金,全是“AI+低代码,开发效率提升10倍”“不懂代码也能搭系统,程序员要被取代”的鼓吹,甚至有厂商直言“未来3年,80%的业务系统将通过这套组合落地”。但真相是:90%的所谓“融合方案”都是噱头,80%的企业落地后陷入技术债泥潭,70%的技术人被营销话术误导,白白浪费时间精力。 一、先破局:别被概念绑架,搞懂两者融合的技术本质        聊融合之前,先澄清两个被厂商刻意模糊的核心概念,避免被带偏——很多技术新人,甚至一些资深开发者,都对“数据大模型+低代码”存在致命误解,要么觉得它是“花里胡哨的玩具”,要么觉得它是“能替代一切的黑科技”,其实都不对。 1.1 数据大模型:不是“万能大脑”,只是“高效工具”

              AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

              AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

              文章目录 * AIOps实践:Dify接入飞书实现与智能体对话 * 前言 * 环境搭建 * 1、Docker环境搭建 * 2、LangBot搭建 * 3、编辑流水线 * 4、配置飞书机器人 * 5、创建机器人 * 6、进行测试 * 附:遇到的问题 AIOps实践:Dify接入飞书实现与智能体对话 前言 前端时间把dify的智能体接入到了Prometheus和夜莺上,实现了与智能体的基本对话,并可以调取Prometheus数据进行分析,在那之后就开始深度研究AIOps实现原理于深度赋能运维的可能性,所以正在研究AIOps的核心:MCP Server;现在还并未成型,在研究的过程中,就想到了可否基于dify的agent,连接自建的mcp服务器,对接到飞书的机器人上,这样就可以和智能体进行对话,配合成型的mcp,就可以基本实现AIOps。 这里需要借助一个三方的开源工具LangBot,LangBot是一个生产级多平台 LLM 机器人开发平台。那么就开始实践吧: MCP Server开发的当前阶

              基于动态三维环境下的Q-Learning算法无人机自主避障路径规划研究(Matlab代码实现)

              💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文内容如下:🎁🎁🎁  ⛳️赠与读者 👨‍💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能解答你胸中升起的一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。      或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎 💥第一部分——内容介绍 基于 Q-learning 的三维无人机动态避障导航方法研究 摘要 针对低空复杂三维环境下无人机自主飞行的安全与路径优化问题,本文提出一种基于 Q-learning 强化学习的无人机导航与避障方法。该方法在离散化

              灵感画廊实战案例:用‘梦境描述’替代Prompt,提升AI绘画质感50%

              灵感画廊实战案例:用‘梦境描述’替代Prompt,提升AI绘画质感50% “见微知著,凝光成影。将梦境的碎片,凝结为永恒的视觉诗篇。” 1. 重新定义AI绘画交互方式 传统的AI绘画工具往往采用工业化界面和机械化的参数设置,让创作过程变得冰冷而技术化。灵感画廊彻底颠覆了这种交互模式,将"提示词"重构为"梦境描述",将"反向词"定义为"尘杂规避",让整个创作过程更像是一场与AI的艺术对话。 这种设计哲学的背后是对创作者心理的深刻理解。当我们用"梦境描述"来代替冰冷的"Prompt",大脑会自动切换到更感性、更形象的思维模式,产生的描述文字自然更具画面感和艺术性。实际测试表明,这种交互方式的改变能让最终画作的质感提升50%以上。 2. 梦境描述的核心技巧 2.1