【图文】Windows + WSL + Ubuntu 安装 OpenClaw 全套流程(飞书机器人 + 百炼模型)

目录

本文记录 Windows 通过 WSL + Ubuntu 安装 OpenClaw 的完整流程,包括:

  • WSL 安装
  • Ubuntu 环境准备
  • Node / NVM 安装
  • OpenClaw 初始化
  • 飞书机器人接入
  • 百炼模型配置
  • 子 Agent 创建

所有命令均可直接复制执行。


一、安装 WSL

先在 PowerShell 执行:

wsl --update wsl --status wsl --version wsl --set-default-version 2 wsl --list--verbose

安装 Ubuntu 22.04:

wsl --install Ubuntu-22.04 

安装完成后打开 Ubuntu 终端。


二、安装基础组件

更新系统:

sudoapt update &&sudoapt upgrade -y

安装基础工具:

sudoaptinstall-y build-essential curlgitunzipzip ca-certificates jq 

额外安装 1Panel(解决 docker 环境问题)

sudobash-c"$(curl-sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh)"

三、安装 Node.js(通过 nvm)

1 安装 nvm

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash

保存全局设置:

source ~/.bashrc 

检查:

nvm --version

2 安装 Node

nvm install22 nvm use 22

检查:

node--version

四、安装 OpenClaw

安装:

npminstall-g openclaw@latest 

检查版本:

openclaw --version

初始化:

openclaw onboard --install-daemon 

五、OpenClaw 初始化配置


这个是问要不要在本机安装,选yes

在这里插入图片描述


初始化方式,选择快速启动(QuickStart)

在这里插入图片描述


选择大模型,百炼不在这些选项中,先选择最后一个选项│ ● Skip for now 跳过,之后再设置

在这里插入图片描述


选择大模型提供商,先选不限提供商All providers

在这里插入图片描述


选择默认模型,这里选第一个保持当前选项(默认)就好

在这里插入图片描述


配置channel,这个直接跳到最下面选跳过

在这里插入图片描述


搜索提供商,我们之后用本地浏览器搞,直接跳过。
配置本地浏览器–>OpenClaw + Google Chrome(deb)+ WSLg:可视化浏览器自动化与人工接管教程

在这里插入图片描述


询问是否现在配置skill,跳过。


六、Hooks 配置(重要)

在这里插入图片描述


这个选项很重要,选择openclaw的预设动作。
第一个选项是在 Gateway 启动时运行 BOOT.md,这个后期有需要自己加。
第二个是注入额外的工作区引导文件,后期再加。
第三个是把所有命令事件写到日志,这个必须开。
第四个保留对话上下文记忆,这个也要开(养龙虾)。


七、打开 Web UI

在这里插入图片描述

网关页面的打开方式,webui比较方便
随后在控制台日志中的复制整串url(带token)

在这里插入图片描述

复制到浏览器打开即可。

成功打开网关


成功打开网关页面


八、安装飞书插件

推荐 官方插件

先安装飞书 SDK:

npminstall-g @larksuiteoapi/node-sdk 

再安装插件:

openclaw plugins install @openclaw/feishu 

删除异常插件(谨慎操作):

rm-rf ~/.openclaw/extensions/feishu 

九、第三方飞书插件(备用方案)

openclaw plugins install @m1heng-clawd/feishu 

安装失败可以手动安装

curl-O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.3.tgz openclaw plugins install ./feishu-0.1.3.tgz 

十、飞书权限配置(注意先做好飞书机器人设置,再配置channel)

飞书开放平台创建应用,配置机器人能力

在这里插入图片描述


导入以下权限:

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","base:app:copy","base:app:create","base:app:read","base:app:update","bitable:app","bitable:app:readonly","contact:contact.base:readonly","contact:department.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:chat:read","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource","sheets:spreadsheet","sheets:spreadsheet.meta:read","sheets:spreadsheet.meta:write_only","sheets:spreadsheet:create","sheets:spreadsheet:read","sheets:spreadsheet:readonly","sheets:spreadsheet:write_only"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}

最后记得发布应用


十一、配置飞书channel

执行:

openclaw channels add
在这里插入图片描述


选择飞书

在这里插入图片描述


选择输入app密钥
appid和密钥同样在飞书开放平台获取

在这里插入图片描述


并粘贴到控制台中

接下来

在这里插入图片描述


链接方式,选择长连接(WebSocket)

在这里插入图片描述


对话模式,这里选open(不限制对话),(真正的对话权限可以到飞书控制台设置)

接下来还有其他的一些选项

配置项说明选择
Feishu account飞书账号选择 default
domain域名根据区域选择(国内选 feishu,国际选 lark)

选择完后这里会再跳一个Select a channel选项,我们跳到最下面选Finished就结束了。

接下来还有对这个channel的一些设置:

Configure DM access policies now? → 选 Yes,再选择open,配置所有人可对话(也可以选no跳过,后续修改) Add display names for these accounts? → 给channel加名字,选 No Bind configured channel accounts to agents now? → 将这个channel配置给某个agent,如果你有多个agent可以配置一下,这里我们选no跳过 

十二、配置飞书回调事件

在这里插入图片描述

开启:

长连接

添加事件:

接收消息 im.message.receive_v1


十三、重启 OpenClaw

openclaw gateway restart 

十四、配置百炼模型

编辑:

~/.openclaw/openclaw.json 

添加 models:

"models":{"mode":"merge","providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"${DASHSCOPE_API_KEY}","api":"openai-completions","models":[{"id":"qwen-plus","name":"Qwen Plus","input":["text","image"]}]}}}

请注意:此处baseUrl填写的是百炼Coding Plan的url,百炼的普通url为

"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1"

随后在agents.defaults.model.primary这个键内修改默认模型:
例如:

bailian/kimi-k2.5 

如果需要多模型,则在agents.models下配置:

"models":{"bailian/kimi-k2.5":{},"openai-codex/gpt-5.4":{}}

重启网关:

openclaw gateway restart 

模型配置成功

在这里插入图片描述

十五、(题外话)OpenAI OAuth 登录

另外的,若想配置(或重新配置)openaiGPT且用网页登录认证(OAuth),则使用命令直接设置:

openclaw models auth login --provider openai-codex 

十六、【进阶】创建子 Agent

使用

openclaw agents add

可以进入交互式操作页面创建子Agent

也可以使用非交互式命令直接创建
基础格式(注意,一定要指定子Agent的workspace):

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --non-interactive 

示例:

openclaw agents add Engineer \--workspace ~/.openclaw/workspace-Engineer \--model openai-codex/gpt-5.4 \ --non-interactive 

高级设定模板:

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --agent-dir <agent_dir>\--model<model>\--bind feishu:default \ --non-interactive 

至此 OpenClaw + 飞书 + 百炼模型部署完成

Read more

3分钟快速上手:llama-cpp-python完整安装与配置指南

3分钟快速上手:llama-cpp-python完整安装与配置指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 想要在本地轻松运行大型语言模型却担心复杂的安装过程?llama-cpp-python作为llama.cpp的Python绑定库,为您提供了简单易用的AI开发体验。本文将带您从零开始,快速掌握这个强大工具的安装配置方法。 基础安装:一键搞定 llama-cpp-python的安装过程极其简单,只需运行以下命令: pip install llama-cpp-python 这个命令会自动从源码构建llama.cpp,并将其与Python包一起安装。如果遇到构建问题,可以添加--verbose参数查看详细构建日志。 硬件加速配置方案 为了获得最佳性能表现,您可以根据自己的硬件配置选择合适的加速后端。 CUDA加速配置(NVIDIA显卡用户) CMAKE_ARGS="-DGGML_CU

最完整whisperX入门指南:从安装到实现第一个语音识别功能

最完整whisperX入门指南:从安装到实现第一个语音识别功能 【免费下载链接】whisperXm-bain/whisperX: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 项目地址: https://gitcode.com/gh_mirrors/wh/whisperX 你还在为语音识别工具安装复杂、识别准确率低、时间戳不精准而烦恼吗?本文将带你从零开始,一步步掌握whisperX的安装配置,并实现你的第一个语音识别功能。读完本文,你将能够:搭建稳定的whisperX运行环境、使用命令行和Python API两种方式进行语音识别、获取精准的单词级时间戳、实现多 speaker 区分标注。 whisperX 简介 whisperX 是一个基于 OpenAI Whisper 的语音识别工具,它在 Whisper 的基础上进行了改进,提供了更精准的单词级时间戳和 speaker 区分功能。

零门槛上手!小白也能封神,好用的AI写作平台

零门槛上手!小白也能封神,好用的AI写作平台

这里按中文全能、学术论文、职场 / 自媒体、免费轻量、国际专业五大场景,整理了 2026 年实测好用的 AI 写作平台,覆盖从日常文案到论文、报告全需求,附核心优势与适用人群,方便你直接选。 一、中文全能型(日常 / 职场 / 创作通用) 1. 豆包(字节跳动) * 核心优势:中文理解极强、响应快、免费额度足,覆盖文案、报告、脚本、邮件、润色全场景。支持 10 + 风格切换,网感足、细节饱满,生成内容可直接发布。多模态能力强,可配图、做 PPT、生成短视频脚本。 * 价格:基础功能永久免费,高级功能按需付费。 * 适合:学生、职场人、自媒体、

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&