OpenClaw 完整安装与配置文档(包含Minimax/deepseek模型接入、飞书机器人接入)

OpenClaw 完整安装与配置文档

文档说明:本文档适用于 Linux 系统(Debian/Ubuntu 系列),详细梳理 OpenClaw 从基础环境准备、核心程序安装,到模型配置(Minimax/DeepSeek)、飞书渠道对接的全流程,所有交互式配置选项完整呈现,步骤可直接复制执行,适配新手操作。

适用场景:OpenClaw 新手部署、企业内部飞书机器人对接、Minimax/DeepSeek 模型配置

前置说明

  1. 服务器需联网,确保能访问 GitHub、npm、飞书官网;
  2. 操作全程使用终端命令行,建议使用远程工具(如 Xshell、Putty)连接服务器;
  3. 复制命令时需完整复制,避免遗漏特殊符号;
  4. 所有交互式配置选项均完整列出,按文档指引选择即可。
  5. 拥有root用户/sudo权限。

一、基础环境准备

1.1 配置 Root 账户(便于远程登录操作,可选但推荐)

执行以下命令修改 Root 密码及远程登录权限:

# 1. 修改 root 密码(执行后按提示输入两次新密码)sudopasswd root # 2. 修改 root 远程登录配置文件sudovim /etc/ssh/sshd_config 

配置文件编辑步骤

  • 打开文件后,按 i 键进入编辑模式;
  • 找到 PermitRootLogin 行(若被注释,先删除前面的 #),修改为PermitRootLogin yes
  • Esc 键退出编辑模式,输入 :wq 并回车,保存并退出 vim;
  • 重启 sshd 服务,使配置生效:
sudo systemctl restart sshd 

1.2 安装 Node.js(OpenClaw 核心依赖,需 ≥20.x,推荐 22.x)

# 1. 添加 NodeSource 官方源(22.x 稳定版本)curl-fsSL https://deb.nodesource.com/setup_22.x |sudo-Ebash - # 2. 安装 Node.jssudoapt-getinstall-y nodejs # 3. 验证 Node.js 版本(确认版本 ≥20.x)node-v

注意:若执行 curl 命令提示连接失败,可尝试更换国内源或手动下载安装包上传至服务器。

1.3 安装 CMake(编译依赖,版本 ≥3.19 可跳过此步骤)

# 1. 下载 CMake 3.28.3 官方安装脚本(Linux x86_64 架构)wget https://github.com/Kitware/CMake/releases/download/v3.28.3/cmake-3.28.3-linux-x86_64.sh # 2. 给安装脚本添加执行权限chmod +x cmake-3.28.3-linux-x86_64.sh # 3. 安装到 /usr/local/bin 目录(跳过许可证确认)sudo ./cmake-3.28.3-linux-x86_64.sh --prefix=/usr/local --skip-license # 4. 验证 CMake 版本(确认版本 ≥3.19) cmake --version

注意:1. 若 wget 下载失败,可手动从 GitHub 下载安装包,上传至服务器后执行后续命令;2. 安装完成后,若提示“cmake: command not found”,需配置环境变量,执行 export PATH=/usr/local/bin:$PATH

1.4 安装基础编译工具

sudoaptinstall-ymake gcc g++ build-essential 

该命令会安装编译 OpenClaw 所需的所有基础工具,确保后续安装无依赖报错。

1.5 安装 xpm(OpenClaw 专用依赖管理工具)

npminstall-g xpm 

安装完成后,可执行 xpm -v 验证是否安装成功。

二、OpenClaw 核心安装与初始化

2.1 安装 OpenClaw 主程序(最新版本)

npminstall-g openclaw@latest 

安装过程中若提示权限不足,可在命令前添加 sudo(即 sudo npm install -g openclaw@latest)。

2.2 初始化 OpenClaw(交互式配置,所有选项完整呈现)

openclaw onboard --install-daemon 

执行命令后,进入交互式配置界面,按以下指引选择选项,所有可选项均完整列出

  1. 确认个人使用协议
    • 提示内容:I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
    • 可选选项:● Yes / ○ No
    • 选择:● Yes(回车确认)
  2. 选择初始化模式
    • 提示内容:Onboarding mode
    • 可选选项:
      • ● QuickStart (Configure details later via openclaw configure.)
      • ○ Manual
    • 选择:● QuickStart(快速初始化,后续可通过命令补充配置,回车确认)
  3. 选择模型/授权提供商
    • 提示内容:Model/auth provider
    • 可选选项:(上方为各类模型提供商,最下方为跳过选项)
      • ○ Anthropic
      • ○ OpenAI
      • ○ MiniMax
      • …(其他提供商)
      • ● Skip for now
    • 选择:● Skip for now(暂时跳过,后续通过 config 命令配置模型,回车确认)
  4. 筛选模型提供商
    • 提示内容:Filter models by provider
    • 可选选项:● All providers / ○ 其他具体提供商
    • 选择:● All providers(显示所有提供商的模型,回车确认)
  5. 选择默认模型
    • 提示内容:Default model
    • 可选选项:● Keep current (default: anthropic/claude-opus-4-6) / ○ 其他模型
    • 选择:● Keep current(保留默认模型,后续可修改,回车确认)
  6. 选择渠道(QuickStart 模式)
    • 提示内容:Select channel (QuickStart)
    • 可选选项:
      • ○ Feishu/Lark (飞书)
      • ○ WeChat (微信)
      • …(其他渠道)
      • ● Skip for now (You can add channels later via openclaw channels add)
    • 选择:● Skip for now(暂时跳过渠道配置,后续补充,回车确认)
  7. 是否配置技能(推荐后续配置)
    • 提示内容:Configure skills now? (recommended)
    • 可选选项:● Yes / ○ No
    • 选择:○ No(暂时不配置,回车确认)
  8. 是否启用钩子(Hooks)
    • 提示内容:Enable hooks?
    • 可选选项:◻ Skip for now / ○ 其他钩子选项
    • 操作:按空格键勾选 ◻ Skip for now,变为 ☑ Skip for now 后,回车确认
  9. 选择机器人启动方式
    • 提示内容:How do you want to hatch your bot?
    • 可选选项:
      • ● Open the Web UI
      • ○ Run in background (daemon mode)
      • ○ Exit (configure later)
    • 选择:● Open the Web UI(打开 Web 管理界面,回车确认)

2.3 验证 OpenClaw 网关运行状态

openclaw gateway status 

验证标准:执行命令后,终端无红色报错信息,显示“running”或“active”状态,即表示 OpenClaw 核心服务安装正常。

2.4 访问 OpenClaw Web 管理界面(Windows 端操作)

通过 SSH 端口映射,在 Windows 端访问服务器上的 Web 界面,步骤如下:

  1. 打开 Windows 终端(CMD 或 PowerShell),执行端口映射命令(替换为服务器实际 IP):
ssh-N-L18789:127.0.0.1:18789 [email protected] 

首次连接提示处理

  • 提示:Are you sure you want to continue connecting (yes/no/[fingerprint])? 输入 yes 并回车;
  • 提示输入 root 密码,输入密码后回车(回车后终端无响应,属于正常现象,不要关闭终端);
  1. 打开浏览器,输入以下地址,即可访问 Web 管理界面(token不可直接复制,每个安装完成后的token随机,在上方的openclaw gateway status指令的返回中寻找自己的token):
http://127.0.0.1:18789/#token=0cc32ed44f212d5067acd89f164c5c51192ba0a0ae2fbdd7 

注意:1. 端口映射终端需保持打开状态,关闭则无法访问 Web 界面;2. 若无法访问,检查服务器防火墙是否开放 18789 端口。

三、模型配置(Minimax / DeepSeek 完整配置)

执行以下命令,进入 OpenClaw 模型配置界面,所有交互式选项完整呈现:

openclaw config 

3.1 基础配置选择(所有模型通用)

  1. 选择网关运行位置
    • 提示内容:Where will the Gateway run?
    • 可选选项:● local / ○ remote
    • 选择:● local(网关运行在本地服务器,回车确认)
  2. 选择配置模块
    • 提示内容:Select sections to configure
    • 可选选项:● Model / ○ Channels / ○ Skills / ○ Hooks / ○ Gateway
    • 选择:● Model(进入模型配置,回车确认)

3.2 Minimax 模型配置(完整选项)

  1. 选择模型提供商
    • 提示内容:Select a model provider
    • 可选选项:○ Anthropic / ○ OpenAI / ● MiniMax / ○ 其他提供商 / ○ Custom Provider
    • 选择:● MiniMax(回车确认)
  2. 选择 Minimax 授权方式
    • 提示内容:Select MiniMax auth method
    • 可选选项:● MiniMax OAuth / ○ API Key
    • 选择:● MiniMax OAuth(OAuth 授权方式,回车确认,若使用API Key的也可选择对应方式并输入API Key)
  3. 选择区域
    • 提示内容:Select region
    • 可选选项:● CN / ○ 其他区域
    • 选择:● CN(国内区域,回车确认)
  4. 授权操作
    • 终端会弹出 Minimax 授权链接,复制该链接;
    • 将授权链接提供给已购买 Minimax 套餐的用户,用户打开链接完成授权;
    • 授权完成后,终端自动跳转至模型选择界面。
  5. 选择 Minimax 模型
    • 提示内容:Select default model
    • 可选选项:● 默认模型 / ○ minimax2.5highspeed / ○ 其他 Minimax 模型
    • 选择:可勾选 minimax2.5highspeed(高速模型),或保留默认模型,回车确认

注意:授权链接仅单次有效,若授权失败,需重新进入配置界面,重复上述步骤获取新的授权链接。

3.3 DeepSeek 模型配置(自定义 OpenAI 兼容端点,完整选项)

  1. 选择模型提供商
    • 提示内容:Select a model provider
    • 可选选项:○ Anthropic / ○ OpenAI / ○ MiniMax / … / ● Custom Provider (Any OpenAI or Anthropic compatible endpoint)
    • 选择:● Custom Provider(自定义提供商,回车确认)
  2. 输入 DeepSeek 基地址
    • 提示内容:Enter the base URL for the custom provider
    • 输入内容:https://api.deepseek.com/v1(输入完成后回车确认)
  3. 选择 API Key 提供方式
    • 提示内容:How do you want to provide this API key?
    • 可选选项:
      • ● Paste API key now (Stores the key directly in OpenClaw config)
      • ○ Use environment variable (Requires restarting the gateway)
      • ○ Skip (Configure later)
    • 选择:● Paste API key now(立即粘贴 API Key,回车确认)
  4. 输入 DeepSeek API Key
    • 提示内容:Enter the API key
    • 操作:粘贴 DeepSeek 官方提供的 API Key
  5. 选择端点兼容性
    • 提示内容:Endpoint compatibility
    • 可选选项:
      • ● OpenAI-compatible (Uses /chat/completions)
      • ○ Anthropic-compatible (Uses /messages)
    • 选择:● OpenAI-compatible(OpenAI 兼容模式,回车确认)
  6. 输入模型 ID
    • 提示内容:Enter the model ID (e.g., gpt-4, claude-3-opus)
    • 输入内容:
      • 推理模型:deepseek-reasoner
      • 对话模型:deepseek-chat
    • 操作:根据需求输入对应模型 ID,回车确认
  7. 选择 Endpoint ID
    • 提示内容:Select an endpoint ID (or create a new one)
    • 可选选项:● custom-api-deepseek-com(默认选项,回车确认)
  8. 设置模型别名(可选)
    • 提示内容:Model alias (optional, for easier reference)
    • 操作:可输入 deepseek 作为别名(便于后续识别),也可直接回车跳过(不设置别名)

注意:DeepSeek API Key 需妥善保管,避免泄露;若 API Key 失效,需重新进入配置界面修改。

四、飞书(Feishu)渠道配置(完整步骤+选项)

4.1 进入飞书渠道配置界面

  1. 执行配置命令:openclaw config
  2. 选择配置模块:● Channels(回车确认)
  3. 选择渠道操作:● Configure/link(回车确认)
  4. 选择渠道类型:○ WeChat / ● Feishu/Lark (飞书) / ○ 其他渠道(选择飞书,回车确认)

4.2 安装飞书插件

  • 提示内容:Install Feishu plugin?
  • 可选选项:● Download from npm (@openclaw/feishu) / ○ Use local plugin / ○ Skip (Configure later)
  • 选择:● Download from npm(从 npm 下载官方插件,回车确认)
  • 等待插件下载安装完成(约1-2分钟,根据网络速度而定)

4.3 对接飞书应用信息(交互式配置完整选项)

前置操作:在飞书后台创建「企业内部应用」,并添加机器人(步骤见 4.4),复制应用的 App ID 和 App Secret。

  1. 输入飞书 App ID
    • 提示内容:Enter Feishu App ID
    • 操作:粘贴飞书应用的 App ID,回车确认
  2. 输入飞书 App Secret
    • 提示内容:Enter Feishu App Secret
    • 操作:粘贴飞书应用的 App Secret,回车确认
  3. 选择飞书域名
    • 提示内容:Which Feishu domain?
    • 可选选项:● Feishu (feishu.cn) - China / ○ Lark (larksuite.com) - International
    • 选择:● Feishu (feishu.cn) - China(国内飞书,回车确认)
  4. 选择群聊响应策略
    • 提示内容:Group chat policy
    • 可选选项:
      • ● Allowlist - only respond in specific groups(仅允许指定群聊响应)
      • ○ Open - respond in all groups (requires mention)(所有群聊响应,需 @ 机器人)
      • ○ Disabled - don’t respond in groups(不响应任何群聊)
    • 选择:根据实际需求选择(推荐选择 ○ Open,回车确认)
  5. 配置私聊访问策略
    • 提示内容:Configure DM access policies now? (default: pairing)
    • 可选选项:● Yes / ○ No
    • 选择:● Yes(回车确认,进入私聊策略配置)
    • 私聊策略可选选项:
      • ● Open - respond to all DMs(响应所有用户私聊)
      • ○ Allowlist - only respond to specific users(仅响应指定用户私聊)
      • ○ Disabled - don’t respond to DMs(不响应任何私聊)
    • 选择:根据实际需求选择(推荐选择 ● Open,回车确认)

至此,OpenClaw 端的飞书渠道配置完成,需进入飞书后台补充配置(步骤见 4.4)。

4.4 飞书后台补充配置(完整步骤)

登录飞书开放平台(https://open.feishu.cn/),进入已创建的「企业内部应用」后台,按以下步骤配置:

  1. 添加机器人能力
    • 左侧导航栏点击「应用能力」→「机器人」;
    • 点击「添加机器人」,确认添加(无需额外配置,默认即可)。
  2. 配置权限(关键步骤)
    • 左侧导航栏点击「权限管理」→「权限配置」;
    • 在搜索框输入「im」,筛选「消息与群组」分类下的所有权限(共55项),全部勾选;
    • 在搜索框输入「获取通讯录基本信息」,勾选该权限;
    • 点击页面底部「确认开通」。
  3. 配置事件与回调
    • 左侧导航栏点击「事件与回调」→「事件配置」;
    • 订阅方式选择「长连接」,点击「保存」;
    • 点击「添加事件」,在弹出的窗口中,筛选「消息」分类,勾选「接收消息」;
    • 点击「确认添加」,完成事件订阅。
  4. 发布应用(最终步骤)
    • 点击页面顶部「版本管理」→「创建版本」;
    • 输入版本号(如 v1.0.0)和版本描述(如 OpenClaw 飞书机器人);
    • 可用范围选择「全部成员」,点击「保存」;
    • 点击「申请发布」,等待企业管理员审核(审核通过后,应用即可使用)。

4.5 重启网关,生效飞书配置

openclaw gateway restart 

重启完成后,飞书机器人即可正常接收和响应消息(需等待飞书应用审核通过)。

五、常见问题与注意事项

5.1 常见问题排查

  • 问题1:安装 OpenClaw 时提示“permission denied”(权限不足)
    • 解决方法:在 npm 命令前添加 sudo,即 sudo npm install -g openclaw@latest
  • 问题2:Web 界面无法访问,端口映射无报错
    • 解决方法:检查服务器防火墙是否开放 18789 端口,执行 sudo ufw allow 18789 开放端口。
  • 问题3:飞书机器人无法响应消息
    • 解决方法:1. 检查飞书应用权限是否完整开通;2. 检查事件订阅是否勾选「接收消息」;3. 重启 OpenClaw 网关(openclaw gateway restart)。
  • 问题4:模型配置后无法调用
    • 解决方法:1. 检查 API Key/授权链接是否有效;2. 检查模型 ID 是否输入正确;3. 重启网关生效配置。

5.2 注意事项(必看)

  • 所有命令需在 Linux 终端(Debian/Ubuntu 系列)执行,其他系统(如 CentOS)需调整部分命令(如 apt 替换为 yum)。
  • 端口映射仅用于本地访问 Web 界面,生产环境需配置防火墙,限制访问 IP,避免安全风险。
  • 飞书应用权限需完整配置,否则机器人无法接收/响应消息,若权限变更,需重启网关生效。
  • 模型 API Key、飞书 App Secret 等敏感信息需妥善保管,避免泄露,若泄露需及时更换。
  • OpenClaw 版本会持续更新,若安装过程中出现兼容性问题,可尝试安装指定版本(如 npm install -g [email protected])。
  • 若服务器网络受限,无法访问 GitHub、npm,需配置代理,或手动下载安装包、插件上传至服务器。

Read more

【Arrow开发者必读】:3步解决C和Rust间Schema不一致难题

第一章:Arrow开发者必读:C与Rust数据交互的挑战 在现代数据处理系统中,Apache Arrow 作为跨语言内存数据标准,广泛用于高性能计算场景。当使用 Rust 编写核心逻辑并与 C 接口交互时,开发者常面临内存布局不一致、生命周期管理复杂及类型系统差异等难题。这些挑战直接影响数据传递的安全性与效率。 内存模型差异带来的风险 Rust 的所有权机制与 C 的手动内存管理存在根本冲突。若将 Rust 创建的 Arrow 数组直接暴露给 C,可能因提前释放导致悬垂指针。必须通过 FFI 边界进行深拷贝或使用引用计数包装。 例如,在 Rust 中导出数组指针时需确保其生命周期超越调用栈: #[no_mangle] pub extern "C" fn get_array_data() -> *const ffi:

介绍终身机器人学习的数据集LIBERO

介绍终身机器人学习的数据集LIBERO

1 LIBERO的作用 LIBERO是一个用于研究多任务和终身机器人学习中知识迁移的综合基准测试平台,LIBERO是基于robosuite框架构建的。它专注于机器人操作任务,这些任务需要两类知识: 1. 陈述性知识:关于物体和空间关系的知识 2. 程序性知识:关于运动和行为的知识 2 核心原理 任务生成与基准设计 LIBERO提供了一个程序化生成管道,原则上可以生成无限数量的操作任务。系统包含130个任务,分为四个任务套件,每个套件都有受控的分布偏移: * LIBERO-Spatial/Object/Goal:专注于特定类型知识的迁移 * LIBERO-100:包含需要迁移纠缠知识的100个操作任务 学习框架 系统采用模仿学习作为主要学习方法,因为任务使用稀疏奖励函数(任务完成时获得+1奖励)。LIBERO提供高质量的人类遥操作演示数据集用于训练。 算法与策略架构 LIBERO实现了三种视觉运动策略网络: * bc_rnn_policy:基于RNN的行为克隆策略 * bc_transformer_policy:基于Transformer的行为克隆策略

【论文阅读】Self-supervised Learning of Person-specific Facial Dynamics for APR

【论文阅读】Self-supervised Learning of Person-specific Facial Dynamics for APR

基于特定人物面部动态的自监督学习自动人格识别 * 摘要 * 引言INTRODUCTION * 相关工作 * 五因素模型 * 人格、面部行为与情绪之间的关系 * 基于视频的自动人格预测 * 方法 * 面部动态的自监督学习 * 人格化描述提取 * 训练人格模型 * 实验 * 人格数据库 * 实现细节 * 评价指标 * 消融实验 * 与其他方法的比较 * 结论 论文 关键词:自动人格分析(APR),排序损失,面部时间演变,人格化动态层,自监督学习,卷积神经网络,CNN权重表示 本文主要创新点在于:自监督学习、关注个性化特征 摘要 本文旨在解决现有自动人格分析系统中频繁出现的两个重要问题:1. 使用短视频片段甚至单帧,而非长期行为来推断人格特质;2. 缺乏对特定个体面部动态进行编码以用于人格识别的方法。为解决这些问题,本文提出了一种新颖的排序损失(Rank Loss)利用面部动作的自然时间演变,而非人格标签,来进行面部动态的自监督学习。我们首先训练一个通用的U-net风格模型从一组未标记的面部视频中学

山东大学《Web数据管理》期末复习宝典【万字解析!】

山东大学《Web数据管理》期末复习宝典【万字解析!】

🌈 个人主页:十二月的猫-ZEEKLOG博客 🔥 系列专栏:🏀山东大学期末速通专用_十二月的猫的博客-ZEEKLOG博客 💪🏻 十二月的寒冬阻挡不了春天的脚步,十二点的黑夜遮蔽不住黎明的曙光  目录 1. 第二章 网络爬虫 1.1 爬虫基础知识 1.2 爬虫分类 1.3 开源工具 Nutch 2. 第三章 网页分析 2.1 正则表达式 2.2 DOM模型 2.3 Beautiful Soup工具 2.4 Scrapy框架 2.5 不同爬虫工具比较 2.6 元搜索引擎 3. 第四章 爬虫与网站的博弈 3.1 Robot协议 3.