MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

在 AI Agent 和自动化工具越来越普及的今天,越来越多开发者希望拥有一个 能够自动处理任务、接入团队协作工具的 AI 助手

最近OpenClaw火的一塌糊涂,我也跟风研究了一下这个开源项目。它可以理解为一个 可扩展的 AI Agent 框架,支持接入各种工具、自动执行任务,并且可以和企业协作平台(如飞书)打通,实现 AI 自动回复、自动化工作流

本文将带大家 从 0 开始,在 MacOS 上安装 OpenClaw,并接入飞书机器人
同时我也整理了自己在安装过程中遇到的 终端报错问题与完整解决方案,让你一次性避坑。

本文包含:

  • MacOS 安装 OpenClaw
  • 接入飞书机器人
  • 配置开机自启
  • 终端报错解决(compdef / compinit)

一、OpenClaw 是什么?

简单来说,OpenClaw 是一个 开源 AI Agent 平台,具备以下能力:

  • 支持接入 LLM(OpenAI / DeepSeek / Claude 等)
  • 可以调用工具执行任务
  • 支持自动化流程
  • 支持企业协作平台接入(飞书 / Slack)

如果把传统 AI 聊天比作 一个会聊天的大脑,那么 OpenClaw 更像是:

一个会思考、会调用工具、还能帮你自动做事的 AI 助手。

例如:

  • 飞书自动回复
  • 自动总结群消息
  • 自动生成日报
  • 自动创建任务
  • 自动执行脚本

二、环境准备

1 MacOS 系统

建议版本:

MacOS 12+ 

Intel 和 Apple Silicon 都可以。


2 安装 Homebrew

如果没有安装 Homebrew:

/bin/bash -c"$(curl-fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

更新 brew:

brew update 
homebrew


update brow

如果发现更新 homebrow 失败的话,可以切换国内源或者使用 VPN 就好了。

在这里插入图片描述

3 安装 Node.js

OpenClaw 依赖 Node.js 运行环境。

brew installnode

验证:

node-vnpm-v
node


node 的版本号可以与我的保持一致。


三、安装 OpenClaw

在官网:https://openclaw.ai/,有两种比较适合的安装方式,一种是 npm,一种是安装文件。但是安装文件需要 MacOS 版本15 以上,我的这台只有 12 所以我选择 npm 安装方式(因为这台是我的备用机,主力机最好先不要安装 openclaw,因为还是有一些风险的,切记~~)。

npm



安装官方文档的步骤:

npm i -g openclaw 

这个命令需要执行的时间比较长,耐心等待。

安装 openclaw


看到这个结果的时候就是安装完成了。我们启动 openclaw。

openclaw onboard 

执行完这个命令会有很多操作,需要一步一步按照提示选择,基本上都选择跳过或者完成就行了,后续可以在 WebUI 的设置页面配置。
我的选择是第一个提示选择 YES、然后QuickStart、Skip for now、All providers、Skip for now、反正能跳过就跳过,必须设置的就根据自己的需要设置下。

设置


最后这个我选择 Web UI,当然你也可以选择 TUI 这个是用命令行窗口聊天,我习惯用 web 页面。后续在想进入这个配置页面的话可以使用仪表盘命令

openclaw dashboard 
龙虾页面


然后就会自动打开一个网页看到龙虾的配置页面了。

四、配置 AI 模型

点击“配置”然后点击右边的 open 按钮打开配置源文件修改。

在这里插入图片描述

在 json 文件的根节点上看下有没有 models 属性,没有就新建个,有就修改它;

"models":{"mode":"merge","providers":{"unicom-cloud":{"baseUrl":"根据自己的模型服务上信息配置","apiKey":"根据自己的模型服务上信息配置","api":"openai-completions","models":[{"id":"Qwen3.5-397B-A17B","name":"Qwen3.5-397B-A17B","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":202752,"maxTokens":16384}]}}}

以上是我的配置,我用的是联通云的服务,Qwen 、DeepSeek 等都有官方文档教程可以到对应的官方查看下。

然后,再修改修改agents.defaults(默认模型与工作空间配置)

"agents":{"defaults":{"model":{"primary":"unicom-cloud/Qwen3.5-397B-A17B"},"models":{"unicom-cloud/Qwen3.5-397B-A17B":{}},"workspace":"/Users/当前登录用户/.openclaw/workspace"}}

保存并生效配置。

更新


保存后点击 Update 按钮更新新配置。

聊天


再次启动后,选择刚才配置好的模型,在聊天窗口可以和龙虾聊天了。

五、接入飞书机器人

打开飞书开放平台:

https://open.feishu.cn 

创建 企业自建应用

在这里插入图片描述


在这里插入图片描述


填写应用名称(如OpenClaw机器人)、应用描述(可选),点击创建。

在这里插入图片描述


应用创建后,进入凭证与基础信息,记录App ID和App Secret(后续配置需用)。
然后在配置飞书机器人权限与事件订阅。

在这里插入图片描述


开通核心权限:左侧菜单栏开发配置 → 权限管理

  • 「应用身份权限」:搜索im:message,全部选中并开通;
  • 「用户身份权限」:搜索contact:user.base:readonly,选中并开通;


订阅方式选择长连接。
添加接收消息事件:点击添加事件,搜索im.message.receive_v1,添加该事件并确认开通对应权限。
好了可以创建版本并发布:点击页面顶部应用发布 → 版本管理与发布,创建新版本,填写更新说明后申请线上发布。


六、配置 openclaw 的飞书能力

步骤一:安装OpenClaw飞书插件
官方命令安装

openclaw plugins install @m1heng-clawd/feishu 

OpenClaw会自动完成安装、配置、重启。

在OpenClaw中配置飞书参数

终端执行以下命令,将和替换为飞书应用的实际信息:

# 配置飞书App ID openclaw config set channels.feishu.appId "<App ID>"# 配置飞书App Secret openclaw config set channels.feishu.appSecret "<App Secret>"# 启用飞书渠道 openclaw config set channels.feishu.enabled true# 配置长连接模式(飞书推荐) openclaw config set channels.feishu.connectionMode websocket # 单聊策略为配对授权 openclaw config set channels.feishu.dmPolicy pairing # 群聊策略为白名单 openclaw config set channels.feishu.groupPolicy allowlist # 群聊需@机器人才响应 openclaw config set channels.feishu.requireMention true

配置完成后重启网关:

openclaw gateway restart 

七、飞书机器人配对授权

飞书机器人配置完成后,需完成配对授权才能实现消息响应。
要配对可以按照以下流程:

  • 终端执行配对命令

获取配对码
在飞书向刚才配置的机器人发送任意消息,机器人会自动回复包含配对码的消息:

配对码
openclaw pairing approve feishu xxxx 
  • 重启网关使授权生效
openclaw gateway restart 
  • 验证授权是否成功
    再次向飞书机器人发送消息,机器人能正常回答就说明配置好了,不过我测试的时候发现机器人答复的有点慢,需要多等一会。

十三、配置 OpenClaw 开机自启(推荐)

为了避免每次手动启动,可以配置 开机自启

方法1 官方守护进程(推荐)

openclaw onboard --install-daemon 

重启电脑即可自动启动。

方法2 LaunchAgent 手动配置(备用)

创建 LaunchAgent:

mkdir-p ~/Library/LaunchAgents 

创建配置文件:

vim ~/Library/LaunchAgents/com.openclaw.gateway.plist 

内容:

<?xml version="1.0" encoding="UTF-8"?><!DOCTYPEplistPUBLIC"-//Apple//DTD PLIST 1.0//EN""http://www.apple.com/DTDs/PropertyList-1.0.dtd"><plistversion="1.0"><dict><key>Label</key><string>com.openclaw.gateway</string><key>ProgramArguments</key><array><string>/usr/local/bin/openclaw</string><string>gateway</string><string>start</string></array><key>RunAtLoad</key><true/><key>KeepAlive</key><true/></dict></plist>

加载服务:

launchctl bootstrap gui/$(id-u) ~/Library/LaunchAgents/com.openclaw.gateway.plist 

验证:

launchctl list |grep openclaw 

十四、常见问题解决

在配置 OpenClaw 时,我遇到了两个典型问题。


问题1

compdef: command not found 

原因

macOS 默认 未启用 zsh 补全系统
而 OpenClaw 的自动补全脚本依赖 compdef


问题2

zsh compinit: insecure directories 

原因

zsh 补全目录权限不安全。


十五、完整解决方案(推荐)

1 安装补全组件

brew install zsh-completions 

2 修改 .zshrc

nano ~/.zshrc 

在文件最顶部添加:

autoload -Uz compinit && compinit -i -u if type brew &>/dev/null; then fpath=($(brew --prefix)/share/zsh-completions $fpath) fi 

3 修复目录权限

sudochmod-R go-w $(brew --prefix)/share/zsh-completions sudochown-R$(whoami)$(brew --prefix)/share/zsh-completions sudochmod-R go-w /usr/share/zsh sudochown-R root:wheel /usr/share/zsh 

4 清理缓存

rm-f ~/.zcompdump* source ~/.zshrc 

十六、验证是否成功

重新打开终端:

source ~/.zshrc 

如果没有任何报错,说明成功。

测试:

openclaw + TAB 

能看到命令补全。


十七、懒人方案(可选)

如果不需要命令补全,可以直接禁用:

echo'export OPENCLAW_COMPLETIONS_DISABLE=1'>> ~/.zshrc rm-f ~/.openclaw/completions/openclaw.zsh source ~/.zshrc 

总结

通过本文,我们完成了:

✔ MacOS 安装 OpenClaw
✔ 接入飞书机器人
✔ 配置开机自启
✔ 解决终端报错

AI Agent + 协作工具结合时,很多重复工作都可以自动化。

未来你可以扩展:

  • 自动日报
  • 自动会议总结
  • 自动任务创建
  • 自动客服机器人

OpenClaw 是一个非常值得尝试的 AI Agent 开源项目

如果觉得文章有帮助,欢迎 点赞 + 收藏 + 关注作者

Read more

2026必备10个降AIGC工具,研究生必看!

2026必备10个降AIGC工具,研究生必看!

2026必备10个降AIGC工具,研究生必看! AI降重工具:论文写作的隐形助手 随着人工智能技术的迅猛发展,学术研究领域也迎来了前所未有的变革。尤其是在研究生阶段,论文写作已成为一项核心任务,而如何有效降低AIGC率、去除AI痕迹、避免查重问题,成为许多学生面临的共同挑战。传统的人工修改方式不仅耗时费力,还难以确保语义的连贯性和逻辑的严密性。此时,AI降重工具应运而生,为学术写作提供了全新的解决方案。 这些工具的核心优势在于能够智能识别并优化文本中的AI痕迹,同时在不改变原意的前提下,对语言表达进行润色和调整,从而显著降低查重率。无论是初稿的快速处理,还是定稿前的精细打磨,AI降重工具都能提供高效、专业的支持。它们不仅能帮助学生节省大量时间,还能提升论文的整体质量,让学术表达更加自然流畅。 工具名称主要功能适用场景千笔强力去除AI痕迹、保语义降重AI率过高急需降重云笔AI多模式降重初稿快速处理锐智 AI综合查重与降重定稿前自查文途AI操作简单片段修改降重鸟同义词替换小幅度修改笔杆在线写作辅助辅助润色维普官方查重最终检测万方数据库查重数据对比Turnitin国际通用检测留

下班后上门装OpenClaw,一天赚1500元:普通人如何抓住AI时代的红利

下班后上门装OpenClaw,一天赚1500元:普通人如何抓住AI时代的红利

最近,"上门安装OpenClaw"成了闲鱼、小红书上的热门关键词。 单价从100元到1500元不等。很多人下班后做做,一天就能赚上千元。 这本质上是一个信息差机会。勇敢的人已经先赚钱了。 信息差永远存在 OpenClaw的安装,技术上说并不复杂。安装步骤也就几行命令: 但对很多普通人来说,这几行命令就是整不明白。 他们有需求,有预算,甚至愿意支付溢价,但他们需要有人帮他们。 这就是信息差。 技术对一部分人来说是日常,但对大部分人来说就是无法跨域。这中间,就是机会。 为什么这个需求是真实的? 很多人不理解:不就是安装个软件吗,为什么愿意花上千元? 因为他们买的是"可用性",不是"软件本身"。 想象一下: * 你是自由职业者,每天要浪费时间收集素材,制作内容。如果能有一个AI助手24小时帮你处理这些事情。 * 你是投资者,需要获取市场的信息动态,如果有AI助手可以实时的抓取互联网信息,定时分析后推送给你,是不是可以辅助你做决策。 * 你是传统行业的小老板,听说了AI的风潮,

多模态 AI 应用:图文音视频一体化开发实战教程

多模态 AI 应用:图文音视频一体化开发实战教程

什么是多模态AI 多模态AI是指能够同时处理文本、图像、音频、视频等多种不同类型数据的人工智能系统,它打破了单模态AI的信息壁垒,能更贴近人类理解世界的方式。比如我们日常使用的AI聊天机器人识图功能、视频自动字幕生成工具,都是多模态AI的典型应用。 开发前的核心准备 模型选型建议 模型类型推荐模型适用场景开源轻量模型Qwen-VL-Chat、MiniGPT-4本地部署、快速验证云端API模型GPT-4V、Gemini Pro生产级应用、复杂任务处理专业领域模型CLIP、Whisper图像检索、音频转写等细分场景 环境依赖安装 我们将基于Python生态实现实战项目,需要安装以下核心库: # 基础依赖 pip install torch torchvision transformers pillow # 音频处理依赖 pip install librosa soundfile # 视频处理依赖 pip install opencv-python moviepy # API调用依赖(可选,用于调用云端多模态模型) pip install openai anthropic

xinference+deepseek-r1-distill-llama本地部署完整流程

xinference+deepseek-r1-distill-llama本地部署完整流程

Xinference+deepseek-r1-distill-llama本地部署完整流程 目录 * Xinference+deepseek-r1-distill-llama本地部署完整流程 * 一、创建虚拟机实例 * 二、虚拟机环境搭建 * 前置环境部署 * yum源更换并部署docker服务 * 显驱安装 * 配置NVIDIA容器工具包 * 三、拉取镜像启动容器 * 拉取Xinference镜像 * 启动容器 * 四、可视化部署模型 包含虚拟机创建、前置环境搭建(yum源更换、显驱安装、配置NVIDIA容器工具包、部署docker服务)、拉取Xinference镜像、下载并启动deepseek模型 实例所需配置如下: 服务器宿主机型号:H3C R4900 G5 CPU:Intel Xeon Silver 4314 内存:32G(虚拟机创建) GPU:NVIDIA GeForce RTX 4090 硬盘:200G(虚拟机创建最好大一些,如果硬盘不够