OpenClaw 完整安装与配置文档(包含Minimax/deepseek模型接入、飞书机器人接入)

OpenClaw 完整安装与配置文档

文档说明:本文档适用于 Linux 系统(Debian/Ubuntu 系列),详细梳理 OpenClaw 从基础环境准备、核心程序安装,到模型配置(Minimax/DeepSeek)、飞书渠道对接的全流程,所有交互式配置选项完整呈现,步骤可直接复制执行,适配新手操作。

适用场景:OpenClaw 新手部署、企业内部飞书机器人对接、Minimax/DeepSeek 模型配置

前置说明

  1. 服务器需联网,确保能访问 GitHub、npm、飞书官网;
  2. 操作全程使用终端命令行,建议使用远程工具(如 Xshell、Putty)连接服务器;
  3. 复制命令时需完整复制,避免遗漏特殊符号;
  4. 所有交互式配置选项均完整列出,按文档指引选择即可。
  5. 拥有root用户/sudo权限。

一、基础环境准备

1.1 配置 Root 账户(便于远程登录操作,可选但推荐)

执行以下命令修改 Root 密码及远程登录权限:

# 1. 修改 root 密码(执行后按提示输入两次新密码)sudopasswd root # 2. 修改 root 远程登录配置文件sudovim /etc/ssh/sshd_config 

配置文件编辑步骤

  • 打开文件后,按 i 键进入编辑模式;
  • 找到 PermitRootLogin 行(若被注释,先删除前面的 #),修改为PermitRootLogin yes
  • Esc 键退出编辑模式,输入 :wq 并回车,保存并退出 vim;
  • 重启 sshd 服务,使配置生效:
sudo systemctl restart sshd 

1.2 安装 Node.js(OpenClaw 核心依赖,需 ≥20.x,推荐 22.x)

# 1. 添加 NodeSource 官方源(22.x 稳定版本)curl-fsSL https://deb.nodesource.com/setup_22.x |sudo-Ebash - # 2. 安装 Node.jssudoapt-getinstall-y nodejs # 3. 验证 Node.js 版本(确认版本 ≥20.x)node-v

注意:若执行 curl 命令提示连接失败,可尝试更换国内源或手动下载安装包上传至服务器。

1.3 安装 CMake(编译依赖,版本 ≥3.19 可跳过此步骤)

# 1. 下载 CMake 3.28.3 官方安装脚本(Linux x86_64 架构)wget https://github.com/Kitware/CMake/releases/download/v3.28.3/cmake-3.28.3-linux-x86_64.sh # 2. 给安装脚本添加执行权限chmod +x cmake-3.28.3-linux-x86_64.sh # 3. 安装到 /usr/local/bin 目录(跳过许可证确认)sudo ./cmake-3.28.3-linux-x86_64.sh --prefix=/usr/local --skip-license # 4. 验证 CMake 版本(确认版本 ≥3.19) cmake --version

注意:1. 若 wget 下载失败,可手动从 GitHub 下载安装包,上传至服务器后执行后续命令;2. 安装完成后,若提示“cmake: command not found”,需配置环境变量,执行 export PATH=/usr/local/bin:$PATH

1.4 安装基础编译工具

sudoaptinstall-ymake gcc g++ build-essential 

该命令会安装编译 OpenClaw 所需的所有基础工具,确保后续安装无依赖报错。

1.5 安装 xpm(OpenClaw 专用依赖管理工具)

npminstall-g xpm 

安装完成后,可执行 xpm -v 验证是否安装成功。

二、OpenClaw 核心安装与初始化

2.1 安装 OpenClaw 主程序(最新版本)

npminstall-g openclaw@latest 

安装过程中若提示权限不足,可在命令前添加 sudo(即 sudo npm install -g openclaw@latest)。

2.2 初始化 OpenClaw(交互式配置,所有选项完整呈现)

openclaw onboard --install-daemon 

执行命令后,进入交互式配置界面,按以下指引选择选项,所有可选项均完整列出

  1. 确认个人使用协议
    • 提示内容:I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
    • 可选选项:● Yes / ○ No
    • 选择:● Yes(回车确认)
  2. 选择初始化模式
    • 提示内容:Onboarding mode
    • 可选选项:
      • ● QuickStart (Configure details later via openclaw configure.)
      • ○ Manual
    • 选择:● QuickStart(快速初始化,后续可通过命令补充配置,回车确认)
  3. 选择模型/授权提供商
    • 提示内容:Model/auth provider
    • 可选选项:(上方为各类模型提供商,最下方为跳过选项)
      • ○ Anthropic
      • ○ OpenAI
      • ○ MiniMax
      • …(其他提供商)
      • ● Skip for now
    • 选择:● Skip for now(暂时跳过,后续通过 config 命令配置模型,回车确认)
  4. 筛选模型提供商
    • 提示内容:Filter models by provider
    • 可选选项:● All providers / ○ 其他具体提供商
    • 选择:● All providers(显示所有提供商的模型,回车确认)
  5. 选择默认模型
    • 提示内容:Default model
    • 可选选项:● Keep current (default: anthropic/claude-opus-4-6) / ○ 其他模型
    • 选择:● Keep current(保留默认模型,后续可修改,回车确认)
  6. 选择渠道(QuickStart 模式)
    • 提示内容:Select channel (QuickStart)
    • 可选选项:
      • ○ Feishu/Lark (飞书)
      • ○ WeChat (微信)
      • …(其他渠道)
      • ● Skip for now (You can add channels later via openclaw channels add)
    • 选择:● Skip for now(暂时跳过渠道配置,后续补充,回车确认)
  7. 是否配置技能(推荐后续配置)
    • 提示内容:Configure skills now? (recommended)
    • 可选选项:● Yes / ○ No
    • 选择:○ No(暂时不配置,回车确认)
  8. 是否启用钩子(Hooks)
    • 提示内容:Enable hooks?
    • 可选选项:◻ Skip for now / ○ 其他钩子选项
    • 操作:按空格键勾选 ◻ Skip for now,变为 ☑ Skip for now 后,回车确认
  9. 选择机器人启动方式
    • 提示内容:How do you want to hatch your bot?
    • 可选选项:
      • ● Open the Web UI
      • ○ Run in background (daemon mode)
      • ○ Exit (configure later)
    • 选择:● Open the Web UI(打开 Web 管理界面,回车确认)

2.3 验证 OpenClaw 网关运行状态

openclaw gateway status 

验证标准:执行命令后,终端无红色报错信息,显示“running”或“active”状态,即表示 OpenClaw 核心服务安装正常。

2.4 访问 OpenClaw Web 管理界面(Windows 端操作)

通过 SSH 端口映射,在 Windows 端访问服务器上的 Web 界面,步骤如下:

  1. 打开 Windows 终端(CMD 或 PowerShell),执行端口映射命令(替换为服务器实际 IP):
ssh-N-L18789:127.0.0.1:18789 [email protected] 

首次连接提示处理

  • 提示:Are you sure you want to continue connecting (yes/no/[fingerprint])? 输入 yes 并回车;
  • 提示输入 root 密码,输入密码后回车(回车后终端无响应,属于正常现象,不要关闭终端);
  1. 打开浏览器,输入以下地址,即可访问 Web 管理界面(token不可直接复制,每个安装完成后的token随机,在上方的openclaw gateway status指令的返回中寻找自己的token):
http://127.0.0.1:18789/#token=0cc32ed44f212d5067acd89f164c5c51192ba0a0ae2fbdd7 

注意:1. 端口映射终端需保持打开状态,关闭则无法访问 Web 界面;2. 若无法访问,检查服务器防火墙是否开放 18789 端口。

三、模型配置(Minimax / DeepSeek 完整配置)

执行以下命令,进入 OpenClaw 模型配置界面,所有交互式选项完整呈现:

openclaw config 

3.1 基础配置选择(所有模型通用)

  1. 选择网关运行位置
    • 提示内容:Where will the Gateway run?
    • 可选选项:● local / ○ remote
    • 选择:● local(网关运行在本地服务器,回车确认)
  2. 选择配置模块
    • 提示内容:Select sections to configure
    • 可选选项:● Model / ○ Channels / ○ Skills / ○ Hooks / ○ Gateway
    • 选择:● Model(进入模型配置,回车确认)

3.2 Minimax 模型配置(完整选项)

  1. 选择模型提供商
    • 提示内容:Select a model provider
    • 可选选项:○ Anthropic / ○ OpenAI / ● MiniMax / ○ 其他提供商 / ○ Custom Provider
    • 选择:● MiniMax(回车确认)
  2. 选择 Minimax 授权方式
    • 提示内容:Select MiniMax auth method
    • 可选选项:● MiniMax OAuth / ○ API Key
    • 选择:● MiniMax OAuth(OAuth 授权方式,回车确认,若使用API Key的也可选择对应方式并输入API Key)
  3. 选择区域
    • 提示内容:Select region
    • 可选选项:● CN / ○ 其他区域
    • 选择:● CN(国内区域,回车确认)
  4. 授权操作
    • 终端会弹出 Minimax 授权链接,复制该链接;
    • 将授权链接提供给已购买 Minimax 套餐的用户,用户打开链接完成授权;
    • 授权完成后,终端自动跳转至模型选择界面。
  5. 选择 Minimax 模型
    • 提示内容:Select default model
    • 可选选项:● 默认模型 / ○ minimax2.5highspeed / ○ 其他 Minimax 模型
    • 选择:可勾选 minimax2.5highspeed(高速模型),或保留默认模型,回车确认

注意:授权链接仅单次有效,若授权失败,需重新进入配置界面,重复上述步骤获取新的授权链接。

3.3 DeepSeek 模型配置(自定义 OpenAI 兼容端点,完整选项)

  1. 选择模型提供商
    • 提示内容:Select a model provider
    • 可选选项:○ Anthropic / ○ OpenAI / ○ MiniMax / … / ● Custom Provider (Any OpenAI or Anthropic compatible endpoint)
    • 选择:● Custom Provider(自定义提供商,回车确认)
  2. 输入 DeepSeek 基地址
    • 提示内容:Enter the base URL for the custom provider
    • 输入内容:https://api.deepseek.com/v1(输入完成后回车确认)
  3. 选择 API Key 提供方式
    • 提示内容:How do you want to provide this API key?
    • 可选选项:
      • ● Paste API key now (Stores the key directly in OpenClaw config)
      • ○ Use environment variable (Requires restarting the gateway)
      • ○ Skip (Configure later)
    • 选择:● Paste API key now(立即粘贴 API Key,回车确认)
  4. 输入 DeepSeek API Key
    • 提示内容:Enter the API key
    • 操作:粘贴 DeepSeek 官方提供的 API Key
  5. 选择端点兼容性
    • 提示内容:Endpoint compatibility
    • 可选选项:
      • ● OpenAI-compatible (Uses /chat/completions)
      • ○ Anthropic-compatible (Uses /messages)
    • 选择:● OpenAI-compatible(OpenAI 兼容模式,回车确认)
  6. 输入模型 ID
    • 提示内容:Enter the model ID (e.g., gpt-4, claude-3-opus)
    • 输入内容:
      • 推理模型:deepseek-reasoner
      • 对话模型:deepseek-chat
    • 操作:根据需求输入对应模型 ID,回车确认
  7. 选择 Endpoint ID
    • 提示内容:Select an endpoint ID (or create a new one)
    • 可选选项:● custom-api-deepseek-com(默认选项,回车确认)
  8. 设置模型别名(可选)
    • 提示内容:Model alias (optional, for easier reference)
    • 操作:可输入 deepseek 作为别名(便于后续识别),也可直接回车跳过(不设置别名)

注意:DeepSeek API Key 需妥善保管,避免泄露;若 API Key 失效,需重新进入配置界面修改。

四、飞书(Feishu)渠道配置(完整步骤+选项)

4.1 进入飞书渠道配置界面

  1. 执行配置命令:openclaw config
  2. 选择配置模块:● Channels(回车确认)
  3. 选择渠道操作:● Configure/link(回车确认)
  4. 选择渠道类型:○ WeChat / ● Feishu/Lark (飞书) / ○ 其他渠道(选择飞书,回车确认)

4.2 安装飞书插件

  • 提示内容:Install Feishu plugin?
  • 可选选项:● Download from npm (@openclaw/feishu) / ○ Use local plugin / ○ Skip (Configure later)
  • 选择:● Download from npm(从 npm 下载官方插件,回车确认)
  • 等待插件下载安装完成(约1-2分钟,根据网络速度而定)

4.3 对接飞书应用信息(交互式配置完整选项)

前置操作:在飞书后台创建「企业内部应用」,并添加机器人(步骤见 4.4),复制应用的 App ID 和 App Secret。

  1. 输入飞书 App ID
    • 提示内容:Enter Feishu App ID
    • 操作:粘贴飞书应用的 App ID,回车确认
  2. 输入飞书 App Secret
    • 提示内容:Enter Feishu App Secret
    • 操作:粘贴飞书应用的 App Secret,回车确认
  3. 选择飞书域名
    • 提示内容:Which Feishu domain?
    • 可选选项:● Feishu (feishu.cn) - China / ○ Lark (larksuite.com) - International
    • 选择:● Feishu (feishu.cn) - China(国内飞书,回车确认)
  4. 选择群聊响应策略
    • 提示内容:Group chat policy
    • 可选选项:
      • ● Allowlist - only respond in specific groups(仅允许指定群聊响应)
      • ○ Open - respond in all groups (requires mention)(所有群聊响应,需 @ 机器人)
      • ○ Disabled - don’t respond in groups(不响应任何群聊)
    • 选择:根据实际需求选择(推荐选择 ○ Open,回车确认)
  5. 配置私聊访问策略
    • 提示内容:Configure DM access policies now? (default: pairing)
    • 可选选项:● Yes / ○ No
    • 选择:● Yes(回车确认,进入私聊策略配置)
    • 私聊策略可选选项:
      • ● Open - respond to all DMs(响应所有用户私聊)
      • ○ Allowlist - only respond to specific users(仅响应指定用户私聊)
      • ○ Disabled - don’t respond to DMs(不响应任何私聊)
    • 选择:根据实际需求选择(推荐选择 ● Open,回车确认)

至此,OpenClaw 端的飞书渠道配置完成,需进入飞书后台补充配置(步骤见 4.4)。

4.4 飞书后台补充配置(完整步骤)

登录飞书开放平台(https://open.feishu.cn/),进入已创建的「企业内部应用」后台,按以下步骤配置:

  1. 添加机器人能力
    • 左侧导航栏点击「应用能力」→「机器人」;
    • 点击「添加机器人」,确认添加(无需额外配置,默认即可)。
  2. 配置权限(关键步骤)
    • 左侧导航栏点击「权限管理」→「权限配置」;
    • 在搜索框输入「im」,筛选「消息与群组」分类下的所有权限(共55项),全部勾选;
    • 在搜索框输入「获取通讯录基本信息」,勾选该权限;
    • 点击页面底部「确认开通」。
  3. 配置事件与回调
    • 左侧导航栏点击「事件与回调」→「事件配置」;
    • 订阅方式选择「长连接」,点击「保存」;
    • 点击「添加事件」,在弹出的窗口中,筛选「消息」分类,勾选「接收消息」;
    • 点击「确认添加」,完成事件订阅。
  4. 发布应用(最终步骤)
    • 点击页面顶部「版本管理」→「创建版本」;
    • 输入版本号(如 v1.0.0)和版本描述(如 OpenClaw 飞书机器人);
    • 可用范围选择「全部成员」,点击「保存」;
    • 点击「申请发布」,等待企业管理员审核(审核通过后,应用即可使用)。

4.5 重启网关,生效飞书配置

openclaw gateway restart 

重启完成后,飞书机器人即可正常接收和响应消息(需等待飞书应用审核通过)。

五、常见问题与注意事项

5.1 常见问题排查

  • 问题1:安装 OpenClaw 时提示“permission denied”(权限不足)
    • 解决方法:在 npm 命令前添加 sudo,即 sudo npm install -g openclaw@latest
  • 问题2:Web 界面无法访问,端口映射无报错
    • 解决方法:检查服务器防火墙是否开放 18789 端口,执行 sudo ufw allow 18789 开放端口。
  • 问题3:飞书机器人无法响应消息
    • 解决方法:1. 检查飞书应用权限是否完整开通;2. 检查事件订阅是否勾选「接收消息」;3. 重启 OpenClaw 网关(openclaw gateway restart)。
  • 问题4:模型配置后无法调用
    • 解决方法:1. 检查 API Key/授权链接是否有效;2. 检查模型 ID 是否输入正确;3. 重启网关生效配置。

5.2 注意事项(必看)

  • 所有命令需在 Linux 终端(Debian/Ubuntu 系列)执行,其他系统(如 CentOS)需调整部分命令(如 apt 替换为 yum)。
  • 端口映射仅用于本地访问 Web 界面,生产环境需配置防火墙,限制访问 IP,避免安全风险。
  • 飞书应用权限需完整配置,否则机器人无法接收/响应消息,若权限变更,需重启网关生效。
  • 模型 API Key、飞书 App Secret 等敏感信息需妥善保管,避免泄露,若泄露需及时更换。
  • OpenClaw 版本会持续更新,若安装过程中出现兼容性问题,可尝试安装指定版本(如 npm install -g [email protected])。
  • 若服务器网络受限,无法访问 GitHub、npm,需配置代理,或手动下载安装包、插件上传至服务器。

Read more

Llama-3.2-3B智能助手:Ollama部署实现个人知识管理+任务提醒

Llama-3.2-3B智能助手:Ollama部署实现个人知识管理+任务提醒 你有没有过这样的经历: 刚读完一篇好文章,想记下来却懒得整理; 会议里冒出三个待办事项,转头就忘掉两个; 收藏夹里躺着五十个“以后再看”,结果一年没点开过一次? 别急着自责——这不是你记性差,而是工具没跟上节奏。今天要聊的这个组合,可能就是你缺的那一块拼图:用 Ollama 一键拉起 Llama-3.2-3B,不装显卡、不配服务器、不写一行训练代码,就能在本地跑起一个真正懂你、记得住、提醒得准的轻量级智能助手。 它不是动辄几十GB的大模型玩具,也不是需要调参半天的实验品。它小(仅1.8GB模型体积)、快(M系列Mac上响应不到2秒)、稳(纯CPU运行无报错),最关键的是——它能真正嵌进你的日常流程里:自动归类笔记、提炼会议纪要、按优先级生成待办清单,甚至在你忘记时主动弹出提醒。 下面我们就从零开始,把这套系统搭起来,再手把手教会它怎么帮你管知识、盯任务。 1. 为什么是Llama-3.2-3B?

LLaMA-Factory微调实战:从环境搭建到模型部署

LLaMA-Factory微调实战:从环境搭建到模型部署 在大语言模型(LLM)快速渗透各行各业的今天,一个现实问题摆在开发者面前:通用模型虽然强大,但在垂直场景中往往“说不到点子上”。比如客服系统需要精准响应商品政策,医疗助手必须避免模糊表达——这些都要求模型具备领域专精能力。而实现这一目标的关键,正是微调。 但传统微调流程复杂得令人望而却步:数据清洗、显存优化、分布式训练、评估验证……每一环都需要深厚的技术积累。对于个人开发者或资源有限的小团队来说,这几乎是一道难以逾越的门槛。 好在开源社区给出了优雅解法——LLaMA-Factory。它不仅支持包括 Qwen、Baichuan、ChatGLM、Mistral 在内的上百种主流架构,还集成了 LoRA、QLoRA 等高效参数微调技术,并通过统一接口打通了从训练到部署的全链路。更关键的是,它提供了基于 Gradio 的可视化界面,让非专业用户也能完成模型定制。 本文将以 Qwen-7B-Chat 模型 为例,在单张 RTX 3090(24GB 显存)环境下,

二次元AI绘画工具实战指南:从入门到进阶

本文面向想要使用AI工具生成二次元风格图像的开发者和创作者,从工具选择、环境配置、提示词工程到进阶技巧,提供一份完整的实战指南。 一、主流工具技术栈对比 目前二次元AI绘画主要有以下几种技术路线: 1.1 Stable Diffusion 本地部署 技术架构:基于Latent Diffusion Model,开源可本地运行 硬件要求: * GPU:NVIDIA显卡,8GB+显存(推荐12GB+) * 内存:16GB+ * 存储:50GB+(模型文件较大) 常用界面: * WebUI(AUTOMATIC1111):功能全面,插件生态丰富 * ComfyUI:节点式工作流,适合复杂流程编排 二次元常用模型: * Anything系列:经典二次元模型 * Counterfeit:高质量动漫风格 * MeinaMix:细节丰富的二次元模型 优势:可高度定制,隐私性好,技术上限高 劣势:配置门槛高,

vscode中远程连接不显示copilot chat图标

前提: 1、有授权的Copilot的github账号(学生认证或购买),vscode已登录账号 2、远程主机已安装Github Copilot和Github Copilot Chat插件 现象: 左侧工具栏没有copilot chat的图标 解决: 打开vscode设置(setting),在设置中搜索"extension kind",点击settings.json 在"remote.extensionKind"中添加: "remote.extensionKind":{"GitHub.copilot":["ui"],"GitHub.copilot-chat":["ui"]} 重启vscode可看见chat图标 参考: 快速解决vscode远程连接时copilot提示脱机状态无法使用的问题