手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。

OpenClaw

OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。

该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称)

# OpenClaw 是什么?

OpenClaw 是一个开源的个人 AI 助手平台

简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“员工”。

△ OpenClaw 采用模块化设计,其核心架构如图所示

注意:OpenClaw 需要访问不少本地权限和文件。建议找一台没有数据的 Mac 来试水,避免自己的隐私数据泄露。

# 准备工作

在开始之前,请确认你的 Mac 满足以下条件:

macOS Sonoma 或更新版本(推荐使用 Apple Silicon M1及以上芯片,性能会更好)。

流畅的网络环境,必要时可能会需要梯子(部分依赖库需要从 GitHub 下载)。

一颗爱折腾的心,其实很简单,跟着做就行了!不用担心自己是小白,本文会手把手教你成功部署 OpenClaw ,同时还会教你和飞书互联。

官方网站:https://openclaw.ai/

# 官网版本区别

对于新手小白来说,看到官网给出的四个安装方式到底有什么区别?

One-liner:一键脚本安装,最简单、官方推荐(这也是放在第一页的原因)。它会自动检测系统并安装依赖。适合个人用户,想快速在 Mac/Linux 上体验完整功能。缺点是如果你对系统环境有洁癖,脚本方式侵入性太强,不方便后期更新维护。

npm:全局安装方式,需要依赖Node.js 包管理器安装,适合前端开发者或已熟悉 Node.js 的用户(有一定计算机门槛),通过它安装,你知道自己在装什么,依赖了什么,不会弄乱你的开发环境。版本控制方便,更新更容易,本文选用此安装方式。

Hackable:源码安装方式,可任意魔改,下载源代码到本地。适合想要修改核心逻辑、自己写复杂插件、或者给项目提 PR 的人(小白请直接忽略)

macOS:GUI 界面应用,这是一个 Mac 端应用,提供了一个菜单栏图标,原生体验并提供语音交互、快捷指令等原生 Mac 功能。但是它通常是为了配合 CLI(命令行版)使用的,而不是完全替代命令行,想用此应用还是需要先安装前三中任意一个。

经过上面的解释你应该很清楚各个安装方式的区别了,只是想玩玩 OpenClaw 并且懒得装 Node 环境,玩完重装系统也无所谓,那就一键部署选One-liner。如果想把它当主力工具,长期稳定使用,出了问题好修、版本好管、系统干净,那就选 npm 安装。

# 环境配置(npm安装)

OpenClaw 依赖于 Node.js 环境。如果你不懂这是什么,没关系,照着输命令即可。

官方下载地址:

https://nodejs.org/zh-cn/download

1. 复制官网链接到浏览器打开,然后点击macOS 安装程序(.pkg)下载安装包如果你更熟悉用Homebrew下载,那会更方便,官网下载可避免一些未知错误;

2. 然后打开下载后的安装包,按照安装包的直接正常安装即可;

3. 安装完成,点击「关闭」即可;

4. 打开「终端」;

5. 在终端内输入:

sudo npm i -g openclaw 

然后回车,输入开机密码后再回车;

6. 如果出现如图错误,修改 Git 下载协议 (强制使用 HTTPS),复制下方代码到终端,回车执行即可解决;

    git config --global url."https://github.com/".insteadOf ssh://[email protected]/

    7. 重新输入 

    sudo npm i -g openclaw 

    出现如图界面表示安装成功;

    8. 启动 OpenClaw 的初始化向导,输入下方代码,然后回车; 

    openclaw onboard 

    9. 这一步主要是提醒你,使用 OpenClaw 可能会有一些风险。请问你是否继续?按向左方向键 ←,选择 Yes,按 Enter 回车确认;

    10. 选择选择 QiuickStart(快速开始模式),回车;

    11. 这里是配置 AI 模型 API Key,OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费 token,国外模型成本较高,新版本已经支持KIMI K2.5 ,小编以KIMI为例;

    注:其他任意模型均可,也可以用 Ollama 本地运行的 DeepSeek 的蒸馏版,即可免费使用 AI 模型,点击下图查看本地化部署 DeepSeek 教程;

    12.如果没有 KIMI 的API Key,打开下方官方地址注册账号获取API key,KIMI 认证后的账号可以获得15元的免费代金券;

    https://platform.moonshot.cn/console/api-keys

    13.然后复制你的API key,请保存好自己的 API;

    14. 选择Kimi API key (.cn),回车;

    15. 然后输入你的API Key,回车;

    16. 选择保持当前(moonshot/kimi-k2.5),回车;

    17. 接着你会看到选择聊天选择工具的选项。这里你建议先「暂时跳过」,先在终端(Terminal)里把 OpenClaw 跑起来,确认它的 AI 大脑、文件读写权限都正常工作,后面再单独部署;

    18. 这里选择「Yes」,也可以暂不配置选择「No」,后面通过UI界面再进行配置;

    19. 选择「npm」;

    20. 关于技能,你可以先跳过选择此步骤,或者使用空格键您需要的技能,可多选;

    21. 这里可以配置备用 API,如果不想配置就都选「No」即可;

    22. 正在完成最后的启动服务配置,大约30秒左右;

    23. 配置完成,选择「Open the web UI」,打开可视化页面;

    24. 安装完成,浏览器自动打开 Web UI 界面;

    # 把 OpenClaw 接入飞书机器人

    1. 首先进入飞书开放平台。登录成功后,点击创建企业自建应用;

    2. 接着填写应用名称(如 “AppOS-OpenClaw助手”)、应用描述,选择应用图标,点击「创建应用」按钮,进入应用管理页面;

    3. 在添加应用能力中选择「机器人」→ 点击「添加」;

    4. 在开发配置中点击「权限管理」→「开通权限」;

    5. 在搜索框内搜索「im:」勾选全部相关权限名称,最后点击「确认开通权限」;

    6. 点击左侧「云文档」勾选全部相关权限名称,最后点击「确认开通权限」;

    7. 点击顶部「创建版本」按钮;

    8. 简单填写相关内容,然后点击「保存」;

    9. 点击「确认发布」;

    10. 机器人发布完成,开始配置OpenClaw

    11. 为了防止与自带的飞书文件夹冲突,我们直接把之前的先全部删掉,方便后面顺利安装,输入下方代码到终端内,然后回车,输入开机密码执行;

      sudo rm -rf ~/.openclaw/extensions/feishu

      12. 清理完成后,接着下载飞书插件,在终端输入下方代码,然后回车,输入开机密码执行;

        openclaw plugins install @m1heng-clawd/feishu

        13. 正在下载飞书插件,耐心等待即可;

        14. 出现下面界面表示飞书插件安装成功;

        15. 在输入下方输入代码,然后回车,输入开机密码执行;

          openclaw config

          16. 选择「Local (this machine)」,然后回车;

          17. 选择「Channels(渠道)」,然后回车;

          18. 选择「Configure/link(配置链接)」,然后回车;

          19. 选择「Feishu/Lark(飞书)」,然后回车;

          20. 打开飞书开放平台,在「应用凭证」里,复制 AppID 和 AppSecrect;

          21. 在终端对应位置分别输入飞书的 AppID 和 AppSecrect;

          22. 选择「Feishu(feishu.cn)- China 」,然后回车;

          23. 选择「Open - respond in all groups(requires mention)」,然后回车;

          24. 选择「Finished」然后回车;

          25. 选择「Yes」,回车;

          26. 选择「Open...」,回车;

          27. 选择「Continue」,回车;

          28. 配置完成,关闭终端;

          29. 重新打开终端,然后输入下方代码,重启配置;

            openclaw gateway

            30. 打开飞书开放平台,选择「事件与回调」→「订阅方式」→「使用长连接接收事件」→「保存」;

            31. 然后点击同一页面内的「添加事件」;

            32. 在弹出的列表中,搜索并添加 「接收消息」、「消息已读」、「机器人进群」、「机器人被移出群」,最后点击 「确认添加」;

            33. 添加完成后如下图所示;

            34. 点击「权限管理」→搜索「通讯录」→选中「获取通讯录基本信息」→「确认开通权限」;

            35. 配置完成后我们需要重新发布新版本,点击顶部「创建版本」;

            36. 按如图所示输入;

            37. 点击「确认发布」;

            38. 打开手机端「飞书」,搜索机器人的名字,给机器人发消息,如果机器人以AI的方式进行回复,那么恭喜你配置成功(太不容易了)。

            # OpenClaw常用命令

              openclaw onboard #重新进入配置向导openclaw status #查看运行状态openclaw health #健康检查openclaw gateway start #启动服务openclaw gateway stop #停止服务openclaw update #更新到最新版本openclaw doctor #诊断问题

              openclaw uninstall #卸载 OpenClaw

              # OpenClaw 技能库

              最后再推荐两个 OpenClaw 技能库,它就是给你的 AI 装上一堆「技能插件」,让它从“动嘴皮子”变成“真能干活”。

              1. 宝藏仓库地址 GitHub 地址:

              https://github.com/VoltAgent/awesome-openclaw-skills

              里面包含内容众多,可根据自身需求进行安装;

              2. ClawHub,精英特工的技能平台。

              官方网站:https://clawhub.ai/

              # 写到最后,我想说点什么

              其实 OpenClaw 刚发布时,就有朋友催我出教程。但我当时犹豫了很久,甚至想劝退大家。

              为什么?

              因为它太「初级」了,OpenClaw 代码是由 AI 生成的,这也导致了它存在很多 Bug,安全性也没有得到验证,而且运行起来非常消耗 Token。

              对大多数人来说,它现阶段更像是一个昂贵的玩具,而非能完全承载日常工作的自动化神器。

              但今天我为什么还是决定写这篇教程?

              因为我意识到,不完美,不代表没有价值。

              OpenClaw 代表了未来 AI 操控电脑的雏形,是通往全智能 AI 的必经之路。我也许无法向你推荐一个完美的成品,但我希望能带你体验一种全新的人机交互方式。

              在这个 AI 更新快到令人眩晕的时代,对于我们普通人不必成为造车的工程师,但一定要做最早学会驾驶的司机。

              希望我们持续保持好奇,紧跟这个时代,

              和 AI 一起,

              无限进步!

              # 参考文章

              https://docs.openclaw.ai/zh-CN

              https://cloud.tencent.com.cn/developer/article/2626160

              https://cloud.tencent.com/developer/article/2626151

              https://developer.aliyun.com/article/1709772

              https://cloud.tencent.com/developer/article/2624973

              Read more

              Visual Studio 2026中Github Copilot的大模型

              在 Copilot Chat 中开始使用 AI 模型 在 Visual Studio 17.14 中,Visual Studio 里的 GitHub Copilot 默认使用 GPT-4.1(之前是 GPT-4o)。GPT-4.1 提供更快的响应速度、更高质量的代码建议,以及更高的编码效率。 不过,你并不局限于使用默认模型,你也可以选择其他模型,或者添加自己的模型,根据工作流程选择最合适的 AI 模型。 可用模型 在模型选择器中,你可以选择更多模型,包括: * Claude Sonnet 4 * Claude Opus 4 * GPT-5 * Claude Sonnet 3.5 * Claude

              GitHub Copilot转变为兼容API

              解锁GitHub Copilot全场景使用!copilot-api让Copilot兼容OpenAI/Anthropic生态 作为开发者,你是否曾因GitHub Copilot仅能在指定IDE中使用而感到受限?是否想让Copilot对接Raycast、Claude Code等工具,却苦于接口不兼容?由ericc-ch开发的copilot-api项目给出了完美答案——这是一个反向工程实现的GitHub Copilot API代理,能将Copilot封装为兼容OpenAI和Anthropic规范的API服务,让你在任意支持该规范的工具中轻松调用Copilot能力,彻底解锁Copilot的全场景使用潜力。 项目核心价值:打破生态壁垒,复用Copilot订阅 GitHub Copilot凭借优秀的代码补全、推理能力成为开发者必备工具,但原生仅支持VS Code、JetBrains等少数IDE,且无公开的标准API接口。而copilot-api的核心作用,就是架起Copilot与OpenAI/Anthropic生态的桥梁: * 对于拥有Copilot订阅(个人/企业/商业版)的开发者,

              毫秒级响应!树莓派5 + Whisper + EdgeTTS 构建全离线语音助手 (含避坑指南)

              1. 为什么选择 Whisper 替代 Vosk? 我之前用 Vosk 做离线语音识别确实挺方便的,特别是那个 40MB 的小模型中文件,在树莓派 5 上几乎瞬间就能响应。但用久了发现一个问题:中文识别准确率还是不够理想,特别是当我说得稍微快一点或者带点口音的时候,它经常会听错。 后来我试了 OpenAI 的 Whisper,虽然模型大了不少(我用的 base 版本大约 150MB),但识别准确率真的提升很明显。最重要的是,Whisper 支持热词增强功能,这对智能家居控制特别有用!我可以把"开灯"、"关风扇"这些指令设为热词,识别准确率直接拉满。 实测下来,Whisper 在树莓派 5 上的响应速度依然能保持在毫秒级。我用 Python 写了个简单的测试脚本: import

              知网AIGC检测多少钱?各渠道价格对比和省钱攻略

              知网AIGC检测多少钱?各渠道价格对比和省钱攻略

              知网AIGC检测多少钱?各渠道价格对比和省钱攻略 毕业季一到,论文查重和查AI就成了绕不开的两座山。查重大家都比较熟悉了,但知网AIGC检测是这两年才铺开的新项目,很多同学对它的价格体系还不太清楚。 我去年帮几个学弟学妹查过知网AIGC,踩了不少坑,也摸索出了一些省钱的路子。今天把这些经验整理出来,希望能帮大家少花点冤枉钱。 知网AIGC检测的官方定价是多少? 先说结论:知网AIGC检测并没有一个面向个人用户的统一公开售价。 这和知网查重类似——知网的检测服务主要是面向机构(高校、期刊社)提供的,个人用户想用知网检测,通常需要通过第三方渠道。不同渠道的定价差异不小,这也是很多同学踩坑的原因。 目前市面上能查到的知网AIGC检测价格,大致分布在这个区间: 渠道类型价格区间(单篇)可靠性备注学校图书馆免费(限次)最高部分学校提供1-2次免费机会知网官方合作渠道80-150元高需确认是否为正规授权淘宝/拼多多店铺30-80元参差不齐低价店铺有报告造假风险第三方检测网站50-120元中等需辨别是否真的调用知网接口 学校免费次数用完了怎么办? 很多学校会给毕业生提供