手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。

OpenClaw

OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。

该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称)

# OpenClaw 是什么?

OpenClaw 是一个开源的个人 AI 助手平台

简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“员工”。

△ OpenClaw 采用模块化设计,其核心架构如图所示

注意:OpenClaw 需要访问不少本地权限和文件。建议找一台没有数据的 Mac 来试水,避免自己的隐私数据泄露。

# 准备工作

在开始之前,请确认你的 Mac 满足以下条件:

macOS Sonoma 或更新版本(推荐使用 Apple Silicon M1及以上芯片,性能会更好)。

流畅的网络环境,必要时可能会需要梯子(部分依赖库需要从 GitHub 下载)。

一颗爱折腾的心,其实很简单,跟着做就行了!不用担心自己是小白,本文会手把手教你成功部署 OpenClaw ,同时还会教你和飞书互联。

官方网站:https://openclaw.ai/

# 官网版本区别

对于新手小白来说,看到官网给出的四个安装方式到底有什么区别?

One-liner:一键脚本安装,最简单、官方推荐(这也是放在第一页的原因)。它会自动检测系统并安装依赖。适合个人用户,想快速在 Mac/Linux 上体验完整功能。缺点是如果你对系统环境有洁癖,脚本方式侵入性太强,不方便后期更新维护。

npm:全局安装方式,需要依赖Node.js 包管理器安装,适合前端开发者或已熟悉 Node.js 的用户(有一定计算机门槛),通过它安装,你知道自己在装什么,依赖了什么,不会弄乱你的开发环境。版本控制方便,更新更容易,本文选用此安装方式。

Hackable:源码安装方式,可任意魔改,下载源代码到本地。适合想要修改核心逻辑、自己写复杂插件、或者给项目提 PR 的人(小白请直接忽略)

macOS:GUI 界面应用,这是一个 Mac 端应用,提供了一个菜单栏图标,原生体验并提供语音交互、快捷指令等原生 Mac 功能。但是它通常是为了配合 CLI(命令行版)使用的,而不是完全替代命令行,想用此应用还是需要先安装前三中任意一个。

经过上面的解释你应该很清楚各个安装方式的区别了,只是想玩玩 OpenClaw 并且懒得装 Node 环境,玩完重装系统也无所谓,那就一键部署选One-liner。如果想把它当主力工具,长期稳定使用,出了问题好修、版本好管、系统干净,那就选 npm 安装。

# 环境配置(npm安装)

OpenClaw 依赖于 Node.js 环境。如果你不懂这是什么,没关系,照着输命令即可。

官方下载地址:

https://nodejs.org/zh-cn/download

1. 复制官网链接到浏览器打开,然后点击macOS 安装程序(.pkg)下载安装包如果你更熟悉用Homebrew下载,那会更方便,官网下载可避免一些未知错误;

2. 然后打开下载后的安装包,按照安装包的直接正常安装即可;

3. 安装完成,点击「关闭」即可;

4. 打开「终端」;

5. 在终端内输入:

sudo npm i -g openclaw 

然后回车,输入开机密码后再回车;

6. 如果出现如图错误,修改 Git 下载协议 (强制使用 HTTPS),复制下方代码到终端,回车执行即可解决;

    git config --global url."https://github.com/".insteadOf ssh://[email protected]/

    7. 重新输入 

    sudo npm i -g openclaw 

    出现如图界面表示安装成功;

    8. 启动 OpenClaw 的初始化向导,输入下方代码,然后回车; 

    openclaw onboard 

    9. 这一步主要是提醒你,使用 OpenClaw 可能会有一些风险。请问你是否继续?按向左方向键 ←,选择 Yes,按 Enter 回车确认;

    10. 选择选择 QiuickStart(快速开始模式),回车;

    11. 这里是配置 AI 模型 API Key,OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费 token,国外模型成本较高,新版本已经支持KIMI K2.5 ,小编以KIMI为例;

    注:其他任意模型均可,也可以用 Ollama 本地运行的 DeepSeek 的蒸馏版,即可免费使用 AI 模型,点击下图查看本地化部署 DeepSeek 教程;

    12.如果没有 KIMI 的API Key,打开下方官方地址注册账号获取API key,KIMI 认证后的账号可以获得15元的免费代金券;

    https://platform.moonshot.cn/console/api-keys

    13.然后复制你的API key,请保存好自己的 API;

    14. 选择Kimi API key (.cn),回车;

    15. 然后输入你的API Key,回车;

    16. 选择保持当前(moonshot/kimi-k2.5),回车;

    17. 接着你会看到选择聊天选择工具的选项。这里你建议先「暂时跳过」,先在终端(Terminal)里把 OpenClaw 跑起来,确认它的 AI 大脑、文件读写权限都正常工作,后面再单独部署;

    18. 这里选择「Yes」,也可以暂不配置选择「No」,后面通过UI界面再进行配置;

    19. 选择「npm」;

    20. 关于技能,你可以先跳过选择此步骤,或者使用空格键您需要的技能,可多选;

    21. 这里可以配置备用 API,如果不想配置就都选「No」即可;

    22. 正在完成最后的启动服务配置,大约30秒左右;

    23. 配置完成,选择「Open the web UI」,打开可视化页面;

    24. 安装完成,浏览器自动打开 Web UI 界面;

    # 把 OpenClaw 接入飞书机器人

    1. 首先进入飞书开放平台。登录成功后,点击创建企业自建应用;

    2. 接着填写应用名称(如 “AppOS-OpenClaw助手”)、应用描述,选择应用图标,点击「创建应用」按钮,进入应用管理页面;

    3. 在添加应用能力中选择「机器人」→ 点击「添加」;

    4. 在开发配置中点击「权限管理」→「开通权限」;

    5. 在搜索框内搜索「im:」勾选全部相关权限名称,最后点击「确认开通权限」;

    6. 点击左侧「云文档」勾选全部相关权限名称,最后点击「确认开通权限」;

    7. 点击顶部「创建版本」按钮;

    8. 简单填写相关内容,然后点击「保存」;

    9. 点击「确认发布」;

    10. 机器人发布完成,开始配置OpenClaw

    11. 为了防止与自带的飞书文件夹冲突,我们直接把之前的先全部删掉,方便后面顺利安装,输入下方代码到终端内,然后回车,输入开机密码执行;

      sudo rm -rf ~/.openclaw/extensions/feishu

      12. 清理完成后,接着下载飞书插件,在终端输入下方代码,然后回车,输入开机密码执行;

        openclaw plugins install @m1heng-clawd/feishu

        13. 正在下载飞书插件,耐心等待即可;

        14. 出现下面界面表示飞书插件安装成功;

        15. 在输入下方输入代码,然后回车,输入开机密码执行;

          openclaw config

          16. 选择「Local (this machine)」,然后回车;

          17. 选择「Channels(渠道)」,然后回车;

          18. 选择「Configure/link(配置链接)」,然后回车;

          19. 选择「Feishu/Lark(飞书)」,然后回车;

          20. 打开飞书开放平台,在「应用凭证」里,复制 AppID 和 AppSecrect;

          21. 在终端对应位置分别输入飞书的 AppID 和 AppSecrect;

          22. 选择「Feishu(feishu.cn)- China 」,然后回车;

          23. 选择「Open - respond in all groups(requires mention)」,然后回车;

          24. 选择「Finished」然后回车;

          25. 选择「Yes」,回车;

          26. 选择「Open...」,回车;

          27. 选择「Continue」,回车;

          28. 配置完成,关闭终端;

          29. 重新打开终端,然后输入下方代码,重启配置;

            openclaw gateway

            30. 打开飞书开放平台,选择「事件与回调」→「订阅方式」→「使用长连接接收事件」→「保存」;

            31. 然后点击同一页面内的「添加事件」;

            32. 在弹出的列表中,搜索并添加 「接收消息」、「消息已读」、「机器人进群」、「机器人被移出群」,最后点击 「确认添加」;

            33. 添加完成后如下图所示;

            34. 点击「权限管理」→搜索「通讯录」→选中「获取通讯录基本信息」→「确认开通权限」;

            35. 配置完成后我们需要重新发布新版本,点击顶部「创建版本」;

            36. 按如图所示输入;

            37. 点击「确认发布」;

            38. 打开手机端「飞书」,搜索机器人的名字,给机器人发消息,如果机器人以AI的方式进行回复,那么恭喜你配置成功(太不容易了)。

            # OpenClaw常用命令

              openclaw onboard #重新进入配置向导openclaw status #查看运行状态openclaw health #健康检查openclaw gateway start #启动服务openclaw gateway stop #停止服务openclaw update #更新到最新版本openclaw doctor #诊断问题

              openclaw uninstall #卸载 OpenClaw

              # OpenClaw 技能库

              最后再推荐两个 OpenClaw 技能库,它就是给你的 AI 装上一堆「技能插件」,让它从“动嘴皮子”变成“真能干活”。

              1. 宝藏仓库地址 GitHub 地址:

              https://github.com/VoltAgent/awesome-openclaw-skills

              里面包含内容众多,可根据自身需求进行安装;

              2. ClawHub,精英特工的技能平台。

              官方网站:https://clawhub.ai/

              # 写到最后,我想说点什么

              其实 OpenClaw 刚发布时,就有朋友催我出教程。但我当时犹豫了很久,甚至想劝退大家。

              为什么?

              因为它太「初级」了,OpenClaw 代码是由 AI 生成的,这也导致了它存在很多 Bug,安全性也没有得到验证,而且运行起来非常消耗 Token。

              对大多数人来说,它现阶段更像是一个昂贵的玩具,而非能完全承载日常工作的自动化神器。

              但今天我为什么还是决定写这篇教程?

              因为我意识到,不完美,不代表没有价值。

              OpenClaw 代表了未来 AI 操控电脑的雏形,是通往全智能 AI 的必经之路。我也许无法向你推荐一个完美的成品,但我希望能带你体验一种全新的人机交互方式。

              在这个 AI 更新快到令人眩晕的时代,对于我们普通人不必成为造车的工程师,但一定要做最早学会驾驶的司机。

              希望我们持续保持好奇,紧跟这个时代,

              和 AI 一起,

              无限进步!

              # 参考文章

              https://docs.openclaw.ai/zh-CN

              https://cloud.tencent.com.cn/developer/article/2626160

              https://cloud.tencent.com/developer/article/2626151

              https://developer.aliyun.com/article/1709772

              https://cloud.tencent.com/developer/article/2624973

              Read more

              【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

              【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

              博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯结构化的定义 (Structuration: Definition) * 1. 结构化的定义 * 2. 结构化的示例 * 3. 技术领域中的结构化数据 * 💯有序的规则的重要性 (Importance of Orderly Rules) * 1. 信息的组织和转变 * 2. 字典中的例子 * 3. 规则的有序性 * 4. 生活中的例子 * 💯结构化的实际应用 (Practical Applications of Structuration) * 1. 结构化的广泛应用 * 2. 现代科技领域中的重要性 * 3. 结构化的意义 * 💯小结 💯前言 在人工智能生成内容(AIGC)的浪潮中,信息的高效组织和管理成为突破瓶颈的关键能力。结构化,作为一种通过明确规则和逻辑对信息进行处理的方法,不仅奠定了高效信息管理的基础,

              Qwen3-TTS部署教程:Qwen3-TTS与Whisper ASR构建双向语音对话系统

              Qwen3-TTS部署教程:Qwen3-TTS与Whisper ASR构建双向语音对话系统 想象一下,你对着电脑说一句话,电脑不仅能听懂,还能用自然、有感情的声音回答你,整个过程流畅得就像在和朋友聊天。这听起来像是科幻电影里的场景,但现在,通过Qwen3-TTS和Whisper ASR这两个强大的开源模型,我们完全可以自己动手搭建这样一个系统。 今天,我就带你一步步实现这个目标。无论你是想做一个智能语音助手,还是想为你的应用增加语音交互功能,这篇教程都会给你一个清晰的路线图。我们会从最基础的部署开始,到最终实现一个能听会说的双向对话系统。 1. 准备工作与环境搭建 在开始之前,我们先来了解一下今天要用到的两个核心工具。 Qwen3-TTS 是一个强大的文本转语音模型。它最吸引人的地方在于,它支持10种主要语言,包括中文、英文、日文等,还能生成多种方言和语音风格。更厉害的是,它能理解你文本里的情感和意图,自动调整说话的语调、语速,让生成的声音听起来特别自然。 Whisper ASR 则是OpenAI开源的语音识别模型,它的识别准确率非常高,支持多种语言,而且对带口音、有噪声

              2025终极指南:whisper.cpp跨平台语音识别部署全流程

              2025终极指南:whisper.cpp跨平台语音识别部署全流程 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 还在为语音转文字服务的网络延迟和高成本烦恼?whisper.cpp作为开源语音识别解决方案,提供了本地化部署的完美选择。本文将带你深入了解如何在不同平台上快速部署和使用这个强大的离线语音识别工具。 通过本文,你将掌握: * 多平台环境配置的一键安装方法 * 模型下载与优化的性能调优技巧 * 常见部署问题的快速解决方案 * 监控与维护的最佳实践 平台选择:找到最适合你的方案 平台类型安装难度推理速度内存占用适用场景Windows桌面⭐⭐1.2x1.1GB个人使用Linux服务器⭐⭐⭐1.5x0.9GB企业部署macOS开发⭐2.0x0.7GB移动应用Android设备⭐⭐⭐⭐0.8x0.5GB边缘计算 环境搭建:快速启动的完整步骤 基础环境准备

              AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

              AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

              探秘海螺AI:多模态架构下的认知智能新引擎 在人工智能持续进阶的进程中,海螺AI作为一款前沿的多功能AI工具,正凭借其独特的多模态架构崭露头角。它由上海稀宇科技有限公司(MiniMax)精心打造,依托自研的万亿参数MoE大语言模型ABAB6.5以及MiniMax语音大模型,展现出非凡的技术实力与应用潜力。MiniMax的核心团队源自商汤科技等业内知名企业,在多模态大模型研发领域深耕细作,为海螺AI的诞生奠定了坚实基础。 在这里插入图片描述 一、核心模型架构剖析 (一)基础模型:abab - 6.5 海螺AI的基础模型abab - 6.5采用了创新的混合专家系统设计,借助动态路由机制,即Sparse Gating Network,可依据输入内容智能激活8 - 12个子专家模型。这些子专家模型涵盖代码专家、多语言专家、逻辑推理专家等,各司其职,协同作业。在参数规模上,abab - 6.5总参数量高达1.2万亿,同时通过巧妙的设计,将活跃参数量控制在2000亿/query,有效平衡了模型的高容量与低推理成本。在训练优化环节,