OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 曾用名:ClawdBot → MoltBot → OpenClaw(同一软件,勿混淆)
适用系统:Windows 10/11
最后更新:2026年3月

一、什么是 OpenClaw?

OpenClaw 是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。

与普通 AI 聊天机器人的核心区别:

  • 真正的执行能力:不只回答问题,能实际操作你的电脑
  • 24/7 全天候待命:睡觉时也能主动完成任务
  • 完全开源免费:数据完全掌控在自己手中
  • 支持国内平台:飞书、钉钉等均已支持接入

二、安装前准备:安装 Node.js

建议提前手动安装 Node.js(版本 v22.x 以上),可加快后续安装速度并减少意外。

官方下载地址:https://nodejs.org/zh-cn/download


三、安装 OpenClaw

1. 设置 PowerShell 执行权限

管理员身份运行 PowerShell(Win 键搜索 → 右键 → 以管理员身份运行),依次执行:

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser Set-ExecutionPolicy-Scope Process-ExecutionPolicy Bypass 

2. 执行一键安装命令

iwr-useb https://openclaw.ai/install.ps1 |iex

安装过程会自动完成:检测系统环境、安装依赖、下载核心文件、配置环境变量,并进入配置向导。


四、初始配置向导

1. 风险告知

左方向键 ← 选择 Yes,回车确认继续。

2. 选择 QuickStart 模式

3. 配置 AI 模型 API Key

推荐使用国内智谱 GLM 模型,成本低且门槛低。

4. 选择模型

选择 GLM-4.7(智谱当前旗舰模型)或其他你已有 Key 的模型。

5. 跳过通讯平台配置

飞书配置较复杂,此处选择 Skip,后续单独配置。

6. 跳过 Skills 配置

选择 No,后续通过 UI 界面配置。

7. 开启 Hooks

空格键选中,再按回车确认。

8. 启动服务并打开 UI 界面

服务启动后,约等待 30 秒,选择 Open the Web UI,浏览器自动打开管理界面:

http://127.0.0.1:18789 

五、接入飞书机器人

第一步:创建飞书应用

  1. 打开飞书开放平台:https://open.feishu.cn
  2. 点击右上角进入开发者后台
  3. 点击创建应用,填写应用名称和描述
  4. 进入应用详情,记录下 App IDApp Secret

第二步:添加机器人能力

在应用详情页,找到添加应用能力,选择并添加机器人

第三步:配置权限

权限管理页面,开通以下权限(即时通讯相关权限全部开通):

  • 获取与发送单聊、群组消息
  • 读取用户基本信息
  • 获取通讯录基本信息

第四步:创建版本并发布

  1. 版本管理中创建新版本
  2. 提交发布,状态为在线应用
  3. 前往飞书客户端完成审批

第五步:安装飞书插件

打开 PowerShell,执行:

openclaw plugins install @m1heng-clawd/feishu 

第六步:配置飞书插件

安装完成后,新开一个 PowerShell 窗口,执行:

openclaw config 

按照向导依次完成:

步骤操作
选择渠道选择飞书
选择配置链接选择对应链接
填写凭证输入 App ID 和 App Secret
选择域名选择中国区域
接受群组聊天确认开启
完成配置选择 Yes → Open → 继续

配置完成后重启服务使配置生效:

openclaw gateway stop openclaw gateway start

第七步:飞书后台设置事件回调

  1. 回到飞书开放平台 → 应用详情 → 事件订阅
  2. 选择使用长连接接收事件
  3. 点击添加事件,添加接收消息事件
  4. 重新发布版本(步骤同上)

第八步:开始使用

打开飞书客户端,找到你创建的机器人,直接发消息即可指挥 OpenClaw 干活!


六、常用命令速查

命令功能
openclaw onboard重新进入配置向导
openclaw status查看运行状态
openclaw health健康检查
openclaw gateway start启动服务
openclaw gateway stop停止服务
openclaw update更新到最新版本
openclaw doctor诊断问题
openclaw uninstall卸载 OpenClaw

七、常见问题

Q:安装飞书插件提示 spawn npm ENOENT

这是 OpenClaw 在 Windows 上的已知 bug。找到以下文件:

C:\Users\你的用户名\AppData\Roaming\fnm\node-versions\v22.x.x\installation\node_modules\openclaw\dist\process\exec.js 

找到 runCommandWithTimeout 函数中的 spawn 调用,在其前面添加 Windows npm 兼容处理:

let command = argv[0];let useShell =false;if(process.platform ==="win32"&& path.basename(command)==="npm"){ useShell =true;}const child =spawn(command, argv.slice(1),{ stdio, cwd,env: resolvedEnv,shell: useShell,});

Q:提示"openclaw 命令找不到"

关闭所有 PowerShell 窗口,重新打开后重试。如仍不行,重启电脑。


Q:安装卡住不动

Ctrl+C 中断,执行 openclaw doctor 检查问题,确认防火墙设置是否阻止了网络请求。


Q:端口 18789 被占用

openclaw gateway --port 18790 

换用其他端口启动服务。


八、费用说明

  • OpenClaw 软件本身:完全免费
  • 主要费用来源:AI 模型 API 调用(推荐使用智谱 GLM 等国内模型,成本更低)

Read more

【Cursor 和 Copilot 对比分析】

【Cursor 和 Copilot 对比分析】

Cursor 和 Copilot 对比分析 引言 在人工智能技术快速发展的 2025 年,AI 编程工具正深刻改变着软件开发的工作方式。作为这一领域的两大代表性产品,Cursor和GitHub Copilot分别代表了两种截然不同的技术路线:Cursor 作为AI 原生 IDE,从底层重新定义了开发体验;而 GitHub Copilot 则以插件化集成的方式,在不改变传统开发习惯的前提下提供 AI 辅助。 根据最新市场数据,GitHub Copilot 占据了 **41.9%** 的市场份额,拥有超过 1500 万用户,年收入达到 20 亿美元。与此同时,Cursor 在短短两年内实现了从 0 到 5 亿美元年收入的突破,付费用户超 36 万,其母公司 Anysphere

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、 环境搭建 * 四、 核心攻击流程详解 * 4.1. 固定随机因子 * 4.2 数据预处理 * 4.3. 攻击部分 * 4.3.1 重写扩散模型推理过程

怎么查AI重复率?4步轻松搞定+ AIGC检测工具实测指南

怎么查AI重复率?4步轻松搞定+ AIGC检测工具实测指南

当ChatGPT、Claude等AI工具成为学术写作的辅助手段时,一个新的问题开始困扰学生和研究者:如何确认自己的论文中AI生成内容的占比?AI重复率(又称AIGC率)的检测不仅关系到学术诚信,更可能影响论文的最终通过。很多人尝试用常规查重工具,但发现它们无法精准识别AI生成的文本——要么误判原创内容,要么漏掉AI生成的段落。这时候,选择一款专门针对AIGC率查询的工具就变得至关重要。PaperPass作为深耕学术查重领域近20年的平台,其最新升级的AIGC检测功能正好解决了这一痛点,帮助用户快速、准确地识别论文中的AI生成内容。 什么是AI重复率(AIGC率)? AI重复率并非传统意义上的文本复制比,而是指论文中由人工智能生成的内容占总字数的比例。随着AIGC技术的普及,学术机构越来越关注AI工具的合理使用边界。《2026年全球学术诚信报告》显示,超过62%的高校已将AI生成内容的未标注列为学术不端行为。但AI生成的文本往往没有明显的“复制痕迹”,常规查重工具依赖的字词匹配算法对此束手无策。这就像用普通X光片无法诊断深层组织病变一样,需要更精准的“医学影像技术”来识别AI生成的

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace