【图文】Windows + WSL + Ubuntu 安装 OpenClaw 全套流程(飞书机器人 + 百炼模型)

目录

本文记录 Windows 通过 WSL + Ubuntu 安装 OpenClaw 的完整流程,包括:

  • WSL 安装
  • Ubuntu 环境准备
  • Node / NVM 安装
  • OpenClaw 初始化
  • 飞书机器人接入
  • 百炼模型配置
  • 子 Agent 创建

所有命令均可直接复制执行。


一、安装 WSL

先在 PowerShell 执行:

wsl --update wsl --status wsl --version wsl --set-default-version 2 wsl --list--verbose

安装 Ubuntu 22.04:

wsl --install Ubuntu-22.04 

安装完成后打开 Ubuntu 终端。


二、安装基础组件

更新系统:

sudoapt update &&sudoapt upgrade -y

安装基础工具:

sudoaptinstall-y build-essential curlgitunzipzip ca-certificates jq 

额外安装 1Panel(解决 docker 环境问题)

sudobash-c"$(curl-sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh)"

三、安装 Node.js(通过 nvm)

1 安装 nvm

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash

保存全局设置:

source ~/.bashrc 

检查:

nvm --version

2 安装 Node

nvm install22 nvm use 22

检查:

node--version

四、安装 OpenClaw

安装:

npminstall-g openclaw@latest 

检查版本:

openclaw --version

初始化:

openclaw onboard --install-daemon 

五、OpenClaw 初始化配置


这个是问要不要在本机安装,选yes

在这里插入图片描述


初始化方式,选择快速启动(QuickStart)

在这里插入图片描述


选择大模型,百炼不在这些选项中,先选择最后一个选项│ ● Skip for now 跳过,之后再设置

在这里插入图片描述


选择大模型提供商,先选不限提供商All providers

在这里插入图片描述


选择默认模型,这里选第一个保持当前选项(默认)就好

在这里插入图片描述


配置channel,这个直接跳到最下面选跳过

在这里插入图片描述


搜索提供商,我们之后用本地浏览器搞,直接跳过。
配置本地浏览器–>OpenClaw + Google Chrome(deb)+ WSLg:可视化浏览器自动化与人工接管教程

在这里插入图片描述


询问是否现在配置skill,跳过。


六、Hooks 配置(重要)

在这里插入图片描述


这个选项很重要,选择openclaw的预设动作。
第一个选项是在 Gateway 启动时运行 BOOT.md,这个后期有需要自己加。
第二个是注入额外的工作区引导文件,后期再加。
第三个是把所有命令事件写到日志,这个必须开。
第四个保留对话上下文记忆,这个也要开(养龙虾)。


七、打开 Web UI

在这里插入图片描述

网关页面的打开方式,webui比较方便
随后在控制台日志中的复制整串url(带token)

在这里插入图片描述

复制到浏览器打开即可。

成功打开网关


成功打开网关页面


八、安装飞书插件

推荐 官方插件

先安装飞书 SDK:

npminstall-g @larksuiteoapi/node-sdk 

再安装插件:

openclaw plugins install @openclaw/feishu 

删除异常插件(谨慎操作):

rm-rf ~/.openclaw/extensions/feishu 

九、第三方飞书插件(备用方案)

openclaw plugins install @m1heng-clawd/feishu 

安装失败可以手动安装

curl-O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.3.tgz openclaw plugins install ./feishu-0.1.3.tgz 

十、飞书权限配置(注意先做好飞书机器人设置,再配置channel)

飞书开放平台创建应用,配置机器人能力

在这里插入图片描述


导入以下权限:

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","base:app:copy","base:app:create","base:app:read","base:app:update","bitable:app","bitable:app:readonly","contact:contact.base:readonly","contact:department.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:chat:read","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource","sheets:spreadsheet","sheets:spreadsheet.meta:read","sheets:spreadsheet.meta:write_only","sheets:spreadsheet:create","sheets:spreadsheet:read","sheets:spreadsheet:readonly","sheets:spreadsheet:write_only"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}

最后记得发布应用


十一、配置飞书channel

执行:

openclaw channels add
在这里插入图片描述


选择飞书

在这里插入图片描述


选择输入app密钥
appid和密钥同样在飞书开放平台获取

在这里插入图片描述


并粘贴到控制台中

接下来

在这里插入图片描述


链接方式,选择长连接(WebSocket)

在这里插入图片描述


对话模式,这里选open(不限制对话),(真正的对话权限可以到飞书控制台设置)

接下来还有其他的一些选项

配置项说明选择
Feishu account飞书账号选择 default
domain域名根据区域选择(国内选 feishu,国际选 lark)

选择完后这里会再跳一个Select a channel选项,我们跳到最下面选Finished就结束了。

接下来还有对这个channel的一些设置:

Configure DM access policies now? → 选 Yes,再选择open,配置所有人可对话(也可以选no跳过,后续修改) Add display names for these accounts? → 给channel加名字,选 No Bind configured channel accounts to agents now? → 将这个channel配置给某个agent,如果你有多个agent可以配置一下,这里我们选no跳过 

十二、配置飞书回调事件

在这里插入图片描述

开启:

长连接

添加事件:

接收消息 im.message.receive_v1


十三、重启 OpenClaw

openclaw gateway restart 

十四、配置百炼模型

编辑:

~/.openclaw/openclaw.json 

添加 models:

"models":{"mode":"merge","providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"${DASHSCOPE_API_KEY}","api":"openai-completions","models":[{"id":"qwen-plus","name":"Qwen Plus","input":["text","image"]}]}}}

请注意:此处baseUrl填写的是百炼Coding Plan的url,百炼的普通url为

"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1"

随后在agents.defaults.model.primary这个键内修改默认模型:
例如:

bailian/kimi-k2.5 

如果需要多模型,则在agents.models下配置:

"models":{"bailian/kimi-k2.5":{},"openai-codex/gpt-5.4":{}}

重启网关:

openclaw gateway restart 

模型配置成功

在这里插入图片描述

十五、(题外话)OpenAI OAuth 登录

另外的,若想配置(或重新配置)openaiGPT且用网页登录认证(OAuth),则使用命令直接设置:

openclaw models auth login --provider openai-codex 

十六、【进阶】创建子 Agent

使用

openclaw agents add

可以进入交互式操作页面创建子Agent

也可以使用非交互式命令直接创建
基础格式(注意,一定要指定子Agent的workspace):

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --non-interactive 

示例:

openclaw agents add Engineer \--workspace ~/.openclaw/workspace-Engineer \--model openai-codex/gpt-5.4 \ --non-interactive 

高级设定模板:

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --agent-dir <agent_dir>\--model<model>\--bind feishu:default \ --non-interactive 

至此 OpenClaw + 飞书 + 百炼模型部署完成

Read more

AMD显卡Vulkan后端兼容性问题终极解决方案:llama.cpp本地化部署完全指南

AMD显卡Vulkan后端兼容性问题终极解决方案:llama.cpp本地化部署完全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在AMD显卡上运行llama.cpp时遭遇"Vulkan初始化失败"或推理速度异常缓慢的困扰?本文针对AMD显卡在llama.cpp项目中Vulkan后端的兼容性问题,提供一套从问题诊断到性能优化的完整解决方案。 问题速诊与症状识别 AMD显卡用户在使用llama.cpp的Vulkan后端时,通常会遇到以下典型症状: * 程序启动直接崩溃,错误日志显示"vkCreateInstance failed" * 模型加载进度停滞在0%或卡在"Initializing Vulkan backend"

Whisper语音识别:零门槛打造个人专属语音转文字系统

Whisper语音识别:零门槛打造个人专属语音转文字系统 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为繁琐的音频整理工作而头疼?OpenAI Whisper语音识别技术为您带来革命性的解决方案。这款强大的本地语音转文字工具能够将各类音频文件快速转换为可编辑文本,无论是会议记录、学习资料还是创作内容,都能轻松应对。 技术优势:为何选择Whisper语音识别 隐私安全第一 所有音频处理均在本地完成,无需上传云端,彻底保护您的数据隐私和商业机密。 多语言智能识别 支持99种语言的自动识别和转换,包括中文、英文、日语、法语等主流语言,还能实现语言间的智能翻译。 高精度转录效果 基于深度学习的先进算法,即使在复杂环境下也能保持出色的识别准确率。 快速部署:三分钟完成环境搭建 系统要求检查 确保您的设备满足以下条件: * Python 3.8或更高版本 * 至少4GB可用内存 * 支持的操作系统:Windows、macOS、Linux

Unsloth支持哪些模型?Llama、Qwen、Gemma全兼容

Unsloth支持哪些模型?Llama、Qwen、Gemma全兼容 1. 引言:Unsloth在大模型微调中的定位与价值 随着大语言模型(LLM)的广泛应用,如何高效地对模型进行微调成为开发者关注的核心问题。传统微调方法往往面临显存占用高、训练速度慢、部署复杂等挑战。Unsloth作为一款开源的LLM微调和强化学习框架,致力于解决这些问题,其核心目标是“让人工智能尽可能准确且易于获取”。 根据官方文档,Unsloth能够在保持模型性能的同时,实现2倍的训练速度提升,并降低70%的显存消耗。这一优势使其在资源受限环境下尤为突出,适用于从消费级GPU到企业级训练集群的多种场景。 本文将深入解析Unsloth所支持的主流模型体系,涵盖Llama、Qwen、Gemma等热门架构,并结合实际配置与代码示例,帮助开发者快速掌握其应用方式。 2. Unsloth支持的模型类型详解 2.1 支持的主流模型家族 Unsloth的设计具有高度通用性,能够兼容当前主流的大语言模型架构。根据其官方说明及社区实践,以下几类模型已被验证可成功集成: * Meta Llama系列:包括Llam

VSCode + Copilot 保姆级 AI 编程实战教程,免费用 Claude,夯爆了!

VSCode + Copilot 保姆级 AI 编程实战教程,免费用 Claude,夯爆了!

从安装到实战,手把手教你用 VSCode + GitHub Copilot 进行 AI 编程 你好,我是程序员鱼皮。 AI 编程工具现在是真的百花齐放,Cursor、Claude Code、OpenCode、…… 每隔一段时间就冒出来一个新选手。 之前我一直沉迷于 Cursor 和 Claude Code,直到最近做新项目时认真体验了一把 GitHub Copilot, 才发现这玩意儿真夯啊! 先简单介绍一下主角。VSCode 是微软出品的全球最流行的代码编辑器,装机量破亿;GitHub Copilot 则是 GitHub 官方出品的 AI 编程助手插件,直接安装在 VSCode 中使用。 个人体验下来,相比其他 AI 编程工具有 4 大优势: 1. 支持最新 AI 大模型,