MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

在 AI Agent 和自动化工具越来越普及的今天,越来越多开发者希望拥有一个 能够自动处理任务、接入团队协作工具的 AI 助手

最近OpenClaw火的一塌糊涂,我也跟风研究了一下这个开源项目。它可以理解为一个 可扩展的 AI Agent 框架,支持接入各种工具、自动执行任务,并且可以和企业协作平台(如飞书)打通,实现 AI 自动回复、自动化工作流

本文将带大家 从 0 开始,在 MacOS 上安装 OpenClaw,并接入飞书机器人
同时我也整理了自己在安装过程中遇到的 终端报错问题与完整解决方案,让你一次性避坑。

本文包含:

  • MacOS 安装 OpenClaw
  • 接入飞书机器人
  • 配置开机自启
  • 终端报错解决(compdef / compinit)

一、OpenClaw 是什么?

简单来说,OpenClaw 是一个 开源 AI Agent 平台,具备以下能力:

  • 支持接入 LLM(OpenAI / DeepSeek / Claude 等)
  • 可以调用工具执行任务
  • 支持自动化流程
  • 支持企业协作平台接入(飞书 / Slack)

如果把传统 AI 聊天比作 一个会聊天的大脑,那么 OpenClaw 更像是:

一个会思考、会调用工具、还能帮你自动做事的 AI 助手。

例如:

  • 飞书自动回复
  • 自动总结群消息
  • 自动生成日报
  • 自动创建任务
  • 自动执行脚本

二、环境准备

1 MacOS 系统

建议版本:

MacOS 12+ 

Intel 和 Apple Silicon 都可以。


2 安装 Homebrew

如果没有安装 Homebrew:

/bin/bash -c"$(curl-fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

更新 brew:

brew update 
homebrew


update brow

如果发现更新 homebrow 失败的话,可以切换国内源或者使用 VPN 就好了。

在这里插入图片描述

3 安装 Node.js

OpenClaw 依赖 Node.js 运行环境。

brew installnode

验证:

node-vnpm-v
node


node 的版本号可以与我的保持一致。


三、安装 OpenClaw

在官网:https://openclaw.ai/,有两种比较适合的安装方式,一种是 npm,一种是安装文件。但是安装文件需要 MacOS 版本15 以上,我的这台只有 12 所以我选择 npm 安装方式(因为这台是我的备用机,主力机最好先不要安装 openclaw,因为还是有一些风险的,切记~~)。

npm



安装官方文档的步骤:

npm i -g openclaw 

这个命令需要执行的时间比较长,耐心等待。

安装 openclaw


看到这个结果的时候就是安装完成了。我们启动 openclaw。

openclaw onboard 

执行完这个命令会有很多操作,需要一步一步按照提示选择,基本上都选择跳过或者完成就行了,后续可以在 WebUI 的设置页面配置。
我的选择是第一个提示选择 YES、然后QuickStart、Skip for now、All providers、Skip for now、反正能跳过就跳过,必须设置的就根据自己的需要设置下。

设置


最后这个我选择 Web UI,当然你也可以选择 TUI 这个是用命令行窗口聊天,我习惯用 web 页面。后续在想进入这个配置页面的话可以使用仪表盘命令

openclaw dashboard 
龙虾页面


然后就会自动打开一个网页看到龙虾的配置页面了。

四、配置 AI 模型

点击“配置”然后点击右边的 open 按钮打开配置源文件修改。

在这里插入图片描述

在 json 文件的根节点上看下有没有 models 属性,没有就新建个,有就修改它;

"models":{"mode":"merge","providers":{"unicom-cloud":{"baseUrl":"根据自己的模型服务上信息配置","apiKey":"根据自己的模型服务上信息配置","api":"openai-completions","models":[{"id":"Qwen3.5-397B-A17B","name":"Qwen3.5-397B-A17B","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":202752,"maxTokens":16384}]}}}

以上是我的配置,我用的是联通云的服务,Qwen 、DeepSeek 等都有官方文档教程可以到对应的官方查看下。

然后,再修改修改agents.defaults(默认模型与工作空间配置)

"agents":{"defaults":{"model":{"primary":"unicom-cloud/Qwen3.5-397B-A17B"},"models":{"unicom-cloud/Qwen3.5-397B-A17B":{}},"workspace":"/Users/当前登录用户/.openclaw/workspace"}}

保存并生效配置。

更新


保存后点击 Update 按钮更新新配置。

聊天


再次启动后,选择刚才配置好的模型,在聊天窗口可以和龙虾聊天了。

五、接入飞书机器人

打开飞书开放平台:

https://open.feishu.cn 

创建 企业自建应用

在这里插入图片描述


在这里插入图片描述


填写应用名称(如OpenClaw机器人)、应用描述(可选),点击创建。

在这里插入图片描述


应用创建后,进入凭证与基础信息,记录App ID和App Secret(后续配置需用)。
然后在配置飞书机器人权限与事件订阅。

在这里插入图片描述


开通核心权限:左侧菜单栏开发配置 → 权限管理

  • 「应用身份权限」:搜索im:message,全部选中并开通;
  • 「用户身份权限」:搜索contact:user.base:readonly,选中并开通;


订阅方式选择长连接。
添加接收消息事件:点击添加事件,搜索im.message.receive_v1,添加该事件并确认开通对应权限。
好了可以创建版本并发布:点击页面顶部应用发布 → 版本管理与发布,创建新版本,填写更新说明后申请线上发布。


六、配置 openclaw 的飞书能力

步骤一:安装OpenClaw飞书插件
官方命令安装

openclaw plugins install @m1heng-clawd/feishu 

OpenClaw会自动完成安装、配置、重启。

在OpenClaw中配置飞书参数

终端执行以下命令,将和替换为飞书应用的实际信息:

# 配置飞书App ID openclaw config set channels.feishu.appId "<App ID>"# 配置飞书App Secret openclaw config set channels.feishu.appSecret "<App Secret>"# 启用飞书渠道 openclaw config set channels.feishu.enabled true# 配置长连接模式(飞书推荐) openclaw config set channels.feishu.connectionMode websocket # 单聊策略为配对授权 openclaw config set channels.feishu.dmPolicy pairing # 群聊策略为白名单 openclaw config set channels.feishu.groupPolicy allowlist # 群聊需@机器人才响应 openclaw config set channels.feishu.requireMention true

配置完成后重启网关:

openclaw gateway restart 

七、飞书机器人配对授权

飞书机器人配置完成后,需完成配对授权才能实现消息响应。
要配对可以按照以下流程:

  • 终端执行配对命令

获取配对码
在飞书向刚才配置的机器人发送任意消息,机器人会自动回复包含配对码的消息:

配对码
openclaw pairing approve feishu xxxx 
  • 重启网关使授权生效
openclaw gateway restart 
  • 验证授权是否成功
    再次向飞书机器人发送消息,机器人能正常回答就说明配置好了,不过我测试的时候发现机器人答复的有点慢,需要多等一会。

十三、配置 OpenClaw 开机自启(推荐)

为了避免每次手动启动,可以配置 开机自启

方法1 官方守护进程(推荐)

openclaw onboard --install-daemon 

重启电脑即可自动启动。

方法2 LaunchAgent 手动配置(备用)

创建 LaunchAgent:

mkdir-p ~/Library/LaunchAgents 

创建配置文件:

vim ~/Library/LaunchAgents/com.openclaw.gateway.plist 

内容:

<?xml version="1.0" encoding="UTF-8"?><!DOCTYPEplistPUBLIC"-//Apple//DTD PLIST 1.0//EN""http://www.apple.com/DTDs/PropertyList-1.0.dtd"><plistversion="1.0"><dict><key>Label</key><string>com.openclaw.gateway</string><key>ProgramArguments</key><array><string>/usr/local/bin/openclaw</string><string>gateway</string><string>start</string></array><key>RunAtLoad</key><true/><key>KeepAlive</key><true/></dict></plist>

加载服务:

launchctl bootstrap gui/$(id-u) ~/Library/LaunchAgents/com.openclaw.gateway.plist 

验证:

launchctl list |grep openclaw 

十四、常见问题解决

在配置 OpenClaw 时,我遇到了两个典型问题。


问题1

compdef: command not found 

原因

macOS 默认 未启用 zsh 补全系统
而 OpenClaw 的自动补全脚本依赖 compdef


问题2

zsh compinit: insecure directories 

原因

zsh 补全目录权限不安全。


十五、完整解决方案(推荐)

1 安装补全组件

brew install zsh-completions 

2 修改 .zshrc

nano ~/.zshrc 

在文件最顶部添加:

autoload -Uz compinit && compinit -i -u if type brew &>/dev/null; then fpath=($(brew --prefix)/share/zsh-completions $fpath) fi 

3 修复目录权限

sudochmod-R go-w $(brew --prefix)/share/zsh-completions sudochown-R$(whoami)$(brew --prefix)/share/zsh-completions sudochmod-R go-w /usr/share/zsh sudochown-R root:wheel /usr/share/zsh 

4 清理缓存

rm-f ~/.zcompdump* source ~/.zshrc 

十六、验证是否成功

重新打开终端:

source ~/.zshrc 

如果没有任何报错,说明成功。

测试:

openclaw + TAB 

能看到命令补全。


十七、懒人方案(可选)

如果不需要命令补全,可以直接禁用:

echo'export OPENCLAW_COMPLETIONS_DISABLE=1'>> ~/.zshrc rm-f ~/.openclaw/completions/openclaw.zsh source ~/.zshrc 

总结

通过本文,我们完成了:

✔ MacOS 安装 OpenClaw
✔ 接入飞书机器人
✔ 配置开机自启
✔ 解决终端报错

AI Agent + 协作工具结合时,很多重复工作都可以自动化。

未来你可以扩展:

  • 自动日报
  • 自动会议总结
  • 自动任务创建
  • 自动客服机器人

OpenClaw 是一个非常值得尝试的 AI Agent 开源项目

如果觉得文章有帮助,欢迎 点赞 + 收藏 + 关注作者

Read more

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

前言 通义万相2.1作为一个开源的视频生成AI模型,在发布当天便荣登了VBench排行榜的榜首,超越了Sora和Runway等业内巨头,展现出惊人的潜力。模型不仅能够生成1080P分辨率的视频,而且没有时长限制,能够模拟自然动作,甚至还可以还原物理规律,这在AIGC领域中简直堪称革命性突破。通过蓝耘智算平台,我们能够轻松部署这个模型,创建属于自己的AI视频生成工具。今天,我将为大家深入探讨通义万相2.1的强大功能,并分享如何利用蓝耘智算平台快速入门。 蓝耘智算平台 1. 平台概述 蓝耘智算平台是一个为高性能计算需求设计的云计算平台,提供强大的计算能力与灵活服务。平台基于领先的基础设施和大规模GPU算力,采用现代化的Kubernetes架构,专为大规模GPU加速工作负载而设计,满足用户多样化的需求。 2. 核心优势 * 硬件层: 蓝耘智算平台支持多型号GPU,包括NVIDIA A100、V100、H100等高性能显卡,能够通过高速网络实现多机多卡并行计算,突破单机算力瓶颈。 * 软件层: 集成Kubernetes与Docker技术,便于任务迁移与隔离;支持PyTo

AI绘图的硬件密码:如何为Stable Diffusion选择与优化你的电脑配置

AI绘图的硬件密码:如何为Stable Diffusion选择与优化你的电脑配置 当第一次看到AI生成的画作时,很多人都会被其惊人的创造力和表现力所震撼。从细腻的肖像到奇幻的场景,AI绘图正在重塑创意产业的边界。而Stable Diffusion作为当前最受欢迎的开源AI绘图工具,让每个人都能在本地电脑上体验这股创作浪潮。但不同于在线服务,本地运行Stable Diffusion对硬件有着特定要求,不当的配置可能导致生成速度缓慢甚至无法运行。本文将深入解析硬件选择与优化的核心要点,帮助你在预算范围内搭建最适合AI绘图的工作站。 1. 显卡:AI绘图的核心引擎 显卡是影响Stable Diffusion性能的最关键组件,其选择直接决定了生成图像的速度和质量。与游戏或3D渲染不同,AI绘图对显卡有着独特的需求模式。 显存容量是首要考量因素。Stable Diffusion在生成512x512像素图像时,基础模型通常需要至少4GB显存。而若想处理更高分辨率(如768x768或1024x1024)或使用更复杂的大模型,8GB以上显存将成为必要条件。实测数据显示: 显存容量支持分

Face3D.ai Pro企业实操:AIGC内容工厂中人脸资产标准化生产方案

Face3D.ai Pro企业实操:AIGC内容工厂中人脸资产标准化生产方案 1. 企业级人脸资产生产的挑战与机遇 在当今AIGC内容工厂中,人脸资产的生产一直是个技术难题。传统3D建模需要专业美术师花费数小时甚至数天时间,而普通AI生成的人脸又往往缺乏工业级的精度和一致性。Face3D.ai Pro的出现,为企业提供了一个从单张照片到高质量3D人脸资产的完整解决方案。 这个系统基于深度学习的ResNet50面部拓扑回归模型,能够从一张普通的2D正面照片中,实时还原出高精度的3D人脸几何结构,并生成4K级别的UV纹理贴图。这意味着企业现在可以快速、批量地生产标准化的人脸资产,大幅提升内容生产效率。 2. Face3D.ai Pro核心功能解析 2.1 工业级重建算法 Face3D.ai Pro的核心优势在于其工业级的重建精度。系统基于ModelScope的cv_resnet50_face-reconstruction管道,实现了面部形状、表情与纹理的深度解耦。这种解耦设计意味着生成的人脸资产可以轻松地进行后续编辑和调整。 在实际应用中,系统会自动生成符合工业标准的UV

彻底解决 Codex / Copilot 修改中文乱码【含自动化解决方案】

彻底解决 Codex / Copilot 修改中文乱码【含自动化解决方案】

引言 在使用 GitHub Copilot 或 OpenAI Codex 自动重构代码时,你是否遇到过这样的尴尬:AI 生成的代码逻辑完美,但原本注释里的中文却变成了 我爱中文 这样的乱码?有时候这种字符甚至会污染正确的代码,带来巨大的稳定性隐患。 一、 问题核心:被忽视的“终端中转” 乱码的根源不在于 AI 的大脑,也不在于编辑器的显示,而在于执行链路的编码不一致。 Copilot/Codex 在执行某些修改任务(如:重构整个文件或批量替换)时,往往会通过终端调用系统指令。由于 Windows 终端(PowerShell/CMD)默认使用 GBK 编码,它在处理 AI 传来的 UTF-8 字节时会发生“误读”,导致写入文件的内容从源头上就损坏了。