MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

在 AI Agent 和自动化工具越来越普及的今天,越来越多开发者希望拥有一个 能够自动处理任务、接入团队协作工具的 AI 助手

最近OpenClaw火的一塌糊涂,我也跟风研究了一下这个开源项目。它可以理解为一个 可扩展的 AI Agent 框架,支持接入各种工具、自动执行任务,并且可以和企业协作平台(如飞书)打通,实现 AI 自动回复、自动化工作流

本文将带大家 从 0 开始,在 MacOS 上安装 OpenClaw,并接入飞书机器人
同时我也整理了自己在安装过程中遇到的 终端报错问题与完整解决方案,让你一次性避坑。

本文包含:

  • MacOS 安装 OpenClaw
  • 接入飞书机器人
  • 配置开机自启
  • 终端报错解决(compdef / compinit)

一、OpenClaw 是什么?

简单来说,OpenClaw 是一个 开源 AI Agent 平台,具备以下能力:

  • 支持接入 LLM(OpenAI / DeepSeek / Claude 等)
  • 可以调用工具执行任务
  • 支持自动化流程
  • 支持企业协作平台接入(飞书 / Slack)

如果把传统 AI 聊天比作 一个会聊天的大脑,那么 OpenClaw 更像是:

一个会思考、会调用工具、还能帮你自动做事的 AI 助手。

例如:

  • 飞书自动回复
  • 自动总结群消息
  • 自动生成日报
  • 自动创建任务
  • 自动执行脚本

二、环境准备

1 MacOS 系统

建议版本:

MacOS 12+ 

Intel 和 Apple Silicon 都可以。


2 安装 Homebrew

如果没有安装 Homebrew:

/bin/bash -c"$(curl-fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

更新 brew:

brew update 
homebrew


update brow

如果发现更新 homebrow 失败的话,可以切换国内源或者使用 VPN 就好了。

在这里插入图片描述

3 安装 Node.js

OpenClaw 依赖 Node.js 运行环境。

brew installnode

验证:

node-vnpm-v
node


node 的版本号可以与我的保持一致。


三、安装 OpenClaw

在官网:https://openclaw.ai/,有两种比较适合的安装方式,一种是 npm,一种是安装文件。但是安装文件需要 MacOS 版本15 以上,我的这台只有 12 所以我选择 npm 安装方式(因为这台是我的备用机,主力机最好先不要安装 openclaw,因为还是有一些风险的,切记~~)。

npm



安装官方文档的步骤:

npm i -g openclaw 

这个命令需要执行的时间比较长,耐心等待。

安装 openclaw


看到这个结果的时候就是安装完成了。我们启动 openclaw。

openclaw onboard 

执行完这个命令会有很多操作,需要一步一步按照提示选择,基本上都选择跳过或者完成就行了,后续可以在 WebUI 的设置页面配置。
我的选择是第一个提示选择 YES、然后QuickStart、Skip for now、All providers、Skip for now、反正能跳过就跳过,必须设置的就根据自己的需要设置下。

设置


最后这个我选择 Web UI,当然你也可以选择 TUI 这个是用命令行窗口聊天,我习惯用 web 页面。后续在想进入这个配置页面的话可以使用仪表盘命令

openclaw dashboard 
龙虾页面


然后就会自动打开一个网页看到龙虾的配置页面了。

四、配置 AI 模型

点击“配置”然后点击右边的 open 按钮打开配置源文件修改。

在这里插入图片描述

在 json 文件的根节点上看下有没有 models 属性,没有就新建个,有就修改它;

"models":{"mode":"merge","providers":{"unicom-cloud":{"baseUrl":"根据自己的模型服务上信息配置","apiKey":"根据自己的模型服务上信息配置","api":"openai-completions","models":[{"id":"Qwen3.5-397B-A17B","name":"Qwen3.5-397B-A17B","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":202752,"maxTokens":16384}]}}}

以上是我的配置,我用的是联通云的服务,Qwen 、DeepSeek 等都有官方文档教程可以到对应的官方查看下。

然后,再修改修改agents.defaults(默认模型与工作空间配置)

"agents":{"defaults":{"model":{"primary":"unicom-cloud/Qwen3.5-397B-A17B"},"models":{"unicom-cloud/Qwen3.5-397B-A17B":{}},"workspace":"/Users/当前登录用户/.openclaw/workspace"}}

保存并生效配置。

更新


保存后点击 Update 按钮更新新配置。

聊天


再次启动后,选择刚才配置好的模型,在聊天窗口可以和龙虾聊天了。

五、接入飞书机器人

打开飞书开放平台:

https://open.feishu.cn 

创建 企业自建应用

在这里插入图片描述


在这里插入图片描述


填写应用名称(如OpenClaw机器人)、应用描述(可选),点击创建。

在这里插入图片描述


应用创建后,进入凭证与基础信息,记录App ID和App Secret(后续配置需用)。
然后在配置飞书机器人权限与事件订阅。

在这里插入图片描述


开通核心权限:左侧菜单栏开发配置 → 权限管理

  • 「应用身份权限」:搜索im:message,全部选中并开通;
  • 「用户身份权限」:搜索contact:user.base:readonly,选中并开通;


订阅方式选择长连接。
添加接收消息事件:点击添加事件,搜索im.message.receive_v1,添加该事件并确认开通对应权限。
好了可以创建版本并发布:点击页面顶部应用发布 → 版本管理与发布,创建新版本,填写更新说明后申请线上发布。


六、配置 openclaw 的飞书能力

步骤一:安装OpenClaw飞书插件
官方命令安装

openclaw plugins install @m1heng-clawd/feishu 

OpenClaw会自动完成安装、配置、重启。

在OpenClaw中配置飞书参数

终端执行以下命令,将和替换为飞书应用的实际信息:

# 配置飞书App ID openclaw config set channels.feishu.appId "<App ID>"# 配置飞书App Secret openclaw config set channels.feishu.appSecret "<App Secret>"# 启用飞书渠道 openclaw config set channels.feishu.enabled true# 配置长连接模式(飞书推荐) openclaw config set channels.feishu.connectionMode websocket # 单聊策略为配对授权 openclaw config set channels.feishu.dmPolicy pairing # 群聊策略为白名单 openclaw config set channels.feishu.groupPolicy allowlist # 群聊需@机器人才响应 openclaw config set channels.feishu.requireMention true

配置完成后重启网关:

openclaw gateway restart 

七、飞书机器人配对授权

飞书机器人配置完成后,需完成配对授权才能实现消息响应。
要配对可以按照以下流程:

  • 终端执行配对命令

获取配对码
在飞书向刚才配置的机器人发送任意消息,机器人会自动回复包含配对码的消息:

配对码
openclaw pairing approve feishu xxxx 
  • 重启网关使授权生效
openclaw gateway restart 
  • 验证授权是否成功
    再次向飞书机器人发送消息,机器人能正常回答就说明配置好了,不过我测试的时候发现机器人答复的有点慢,需要多等一会。

十三、配置 OpenClaw 开机自启(推荐)

为了避免每次手动启动,可以配置 开机自启

方法1 官方守护进程(推荐)

openclaw onboard --install-daemon 

重启电脑即可自动启动。

方法2 LaunchAgent 手动配置(备用)

创建 LaunchAgent:

mkdir-p ~/Library/LaunchAgents 

创建配置文件:

vim ~/Library/LaunchAgents/com.openclaw.gateway.plist 

内容:

<?xml version="1.0" encoding="UTF-8"?><!DOCTYPEplistPUBLIC"-//Apple//DTD PLIST 1.0//EN""http://www.apple.com/DTDs/PropertyList-1.0.dtd"><plistversion="1.0"><dict><key>Label</key><string>com.openclaw.gateway</string><key>ProgramArguments</key><array><string>/usr/local/bin/openclaw</string><string>gateway</string><string>start</string></array><key>RunAtLoad</key><true/><key>KeepAlive</key><true/></dict></plist>

加载服务:

launchctl bootstrap gui/$(id-u) ~/Library/LaunchAgents/com.openclaw.gateway.plist 

验证:

launchctl list |grep openclaw 

十四、常见问题解决

在配置 OpenClaw 时,我遇到了两个典型问题。


问题1

compdef: command not found 

原因

macOS 默认 未启用 zsh 补全系统
而 OpenClaw 的自动补全脚本依赖 compdef


问题2

zsh compinit: insecure directories 

原因

zsh 补全目录权限不安全。


十五、完整解决方案(推荐)

1 安装补全组件

brew install zsh-completions 

2 修改 .zshrc

nano ~/.zshrc 

在文件最顶部添加:

autoload -Uz compinit && compinit -i -u if type brew &>/dev/null; then fpath=($(brew --prefix)/share/zsh-completions $fpath) fi 

3 修复目录权限

sudochmod-R go-w $(brew --prefix)/share/zsh-completions sudochown-R$(whoami)$(brew --prefix)/share/zsh-completions sudochmod-R go-w /usr/share/zsh sudochown-R root:wheel /usr/share/zsh 

4 清理缓存

rm-f ~/.zcompdump* source ~/.zshrc 

十六、验证是否成功

重新打开终端:

source ~/.zshrc 

如果没有任何报错,说明成功。

测试:

openclaw + TAB 

能看到命令补全。


十七、懒人方案(可选)

如果不需要命令补全,可以直接禁用:

echo'export OPENCLAW_COMPLETIONS_DISABLE=1'>> ~/.zshrc rm-f ~/.openclaw/completions/openclaw.zsh source ~/.zshrc 

总结

通过本文,我们完成了:

✔ MacOS 安装 OpenClaw
✔ 接入飞书机器人
✔ 配置开机自启
✔ 解决终端报错

AI Agent + 协作工具结合时,很多重复工作都可以自动化。

未来你可以扩展:

  • 自动日报
  • 自动会议总结
  • 自动任务创建
  • 自动客服机器人

OpenClaw 是一个非常值得尝试的 AI Agent 开源项目

如果觉得文章有帮助,欢迎 点赞 + 收藏 + 关注作者

Read more

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗 vs code 中内置的聊天要分情况讨论: 1. VS Code 内置的聊天(“Ask Cody”):不是 GitHub Copilot Chat VS Code 在 2023 年底(1.85 版本)引入了一个内置的聊天侧边栏,它的默认提供者是 VS Code 自己的 AI 助手 “Cody”。 * 这个功能是 VS Code 编辑器的一部分,图标通常是一个对话框气泡 💬。 * 它的目标是提供与编辑器深度集成的通用编程帮助,例如解释代码、生成代码、问答等。 * 它不一定与你的 GitHub Copilot 订阅绑定,即使你没有订阅

LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090 使用wsl中ubuntu torch==2.6.0 conda==24.5.0 cuda==12.4 python==3.12.4(python安装不做赘述,有需要我会另开一篇文章) 一、准备工作 首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。 保证当前 Linux 版本支持CUDA. 在命令行中输入  uname -m && cat /etc/*release 输出如下,不一定完全一样,类似即可 检查是否安装了 gcc . 在命令行中输入 gcc --version

Stable Diffusion XL 1.0艺术化落地:灵感画廊镜像免配置部署教程

Stable Diffusion XL 1.0艺术化落地:灵感画廊镜像免配置部署教程 1. 开篇:走进灵感画廊的艺术世界 想象一下,你不需要学习复杂的参数设置,不需要面对冰冷的工业界面,只需要在一个充满艺术气息的空间里,用自然语言描述你的创意想法,就能生成高质量的艺术作品。这就是"灵感画廊"带给你的创作体验。 灵感画廊是基于Stable Diffusion XL 1.0打造的沉浸式艺术创作工具。它把技术复杂性隐藏在优雅的界面背后,让你专注于创意本身。就像走进一个真正的艺术沙龙,这里没有繁琐的操作步骤,只有与AI的自然对话和灵感碰撞。 无论你是专业设计师、艺术爱好者,还是完全不懂技术的创意人士,都能在几分钟内上手使用,开始你的艺术创作之旅。 2. 环境准备与一键部署 2.1 系统要求 在开始之前,请确保你的环境满足以下要求: * 操作系统:Ubuntu 18.04+ 或 CentOS 7+ * GPU:

AI小白也能快速用五分钟复现的ERNIE-4.5系列模型单卡部署与心理健康机器人实战案例

AI小白也能快速用五分钟复现的ERNIE-4.5系列模型单卡部署与心理健康机器人实战案例

* 本文重点在于文心大模型的微调 * 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.gitcode.com/theme/1939325484087291906 计算机配置 * 在国内部署选个自带CUDA的会快一点,不自带还得去NVIDIA下载,而其提供的CUDA依赖需要科学上网才能下载快。换阿里清华源也没用。 * 文心模型汇总 环境配置与部署 1. 更换镜像源(使用阿里云镜像源): sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak sudo sed -i 's|http://archive.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.