【图文】Windows + WSL + Ubuntu 安装 OpenClaw 全套流程(飞书机器人 + 百炼模型)

目录

本文记录 Windows 通过 WSL + Ubuntu 安装 OpenClaw 的完整流程,包括:

  • WSL 安装
  • Ubuntu 环境准备
  • Node / NVM 安装
  • OpenClaw 初始化
  • 飞书机器人接入
  • 百炼模型配置
  • 子 Agent 创建

所有命令均可直接复制执行。


一、安装 WSL

先在 PowerShell 执行:

wsl --update wsl --status wsl --version wsl --set-default-version 2 wsl --list--verbose

安装 Ubuntu 22.04:

wsl --install Ubuntu-22.04 

安装完成后打开 Ubuntu 终端。


二、安装基础组件

更新系统:

sudoapt update &&sudoapt upgrade -y

安装基础工具:

sudoaptinstall-y build-essential curlgitunzipzip ca-certificates jq 

额外安装 1Panel(解决 docker 环境问题)

sudobash-c"$(curl-sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh)"

三、安装 Node.js(通过 nvm)

1 安装 nvm

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash

保存全局设置:

source ~/.bashrc 

检查:

nvm --version

2 安装 Node

nvm install22 nvm use 22

检查:

node--version

四、安装 OpenClaw

安装:

npminstall-g openclaw@latest 

检查版本:

openclaw --version

初始化:

openclaw onboard --install-daemon 

五、OpenClaw 初始化配置


这个是问要不要在本机安装,选yes

在这里插入图片描述


初始化方式,选择快速启动(QuickStart)

在这里插入图片描述


选择大模型,百炼不在这些选项中,先选择最后一个选项│ ● Skip for now 跳过,之后再设置

在这里插入图片描述


选择大模型提供商,先选不限提供商All providers

在这里插入图片描述


选择默认模型,这里选第一个保持当前选项(默认)就好

在这里插入图片描述


配置channel,这个直接跳到最下面选跳过

在这里插入图片描述


搜索提供商,我们之后用本地浏览器搞,直接跳过。
配置本地浏览器–>OpenClaw + Google Chrome(deb)+ WSLg:可视化浏览器自动化与人工接管教程

在这里插入图片描述


询问是否现在配置skill,跳过。


六、Hooks 配置(重要)

在这里插入图片描述


这个选项很重要,选择openclaw的预设动作。
第一个选项是在 Gateway 启动时运行 BOOT.md,这个后期有需要自己加。
第二个是注入额外的工作区引导文件,后期再加。
第三个是把所有命令事件写到日志,这个必须开。
第四个保留对话上下文记忆,这个也要开(养龙虾)。


七、打开 Web UI

在这里插入图片描述

网关页面的打开方式,webui比较方便
随后在控制台日志中的复制整串url(带token)

在这里插入图片描述

复制到浏览器打开即可。

成功打开网关


成功打开网关页面


八、安装飞书插件

推荐 官方插件

先安装飞书 SDK:

npminstall-g @larksuiteoapi/node-sdk 

再安装插件:

openclaw plugins install @openclaw/feishu 

删除异常插件(谨慎操作):

rm-rf ~/.openclaw/extensions/feishu 

九、第三方飞书插件(备用方案)

openclaw plugins install @m1heng-clawd/feishu 

安装失败可以手动安装

curl-O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.3.tgz openclaw plugins install ./feishu-0.1.3.tgz 

十、飞书权限配置(注意先做好飞书机器人设置,再配置channel)

飞书开放平台创建应用,配置机器人能力

在这里插入图片描述


导入以下权限:

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","base:app:copy","base:app:create","base:app:read","base:app:update","bitable:app","bitable:app:readonly","contact:contact.base:readonly","contact:department.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:chat:read","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource","sheets:spreadsheet","sheets:spreadsheet.meta:read","sheets:spreadsheet.meta:write_only","sheets:spreadsheet:create","sheets:spreadsheet:read","sheets:spreadsheet:readonly","sheets:spreadsheet:write_only"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}

最后记得发布应用


十一、配置飞书channel

执行:

openclaw channels add
在这里插入图片描述


选择飞书

在这里插入图片描述


选择输入app密钥
appid和密钥同样在飞书开放平台获取

在这里插入图片描述


并粘贴到控制台中

接下来

在这里插入图片描述


链接方式,选择长连接(WebSocket)

在这里插入图片描述


对话模式,这里选open(不限制对话),(真正的对话权限可以到飞书控制台设置)

接下来还有其他的一些选项

配置项说明选择
Feishu account飞书账号选择 default
domain域名根据区域选择(国内选 feishu,国际选 lark)

选择完后这里会再跳一个Select a channel选项,我们跳到最下面选Finished就结束了。

接下来还有对这个channel的一些设置:

Configure DM access policies now? → 选 Yes,再选择open,配置所有人可对话(也可以选no跳过,后续修改) Add display names for these accounts? → 给channel加名字,选 No Bind configured channel accounts to agents now? → 将这个channel配置给某个agent,如果你有多个agent可以配置一下,这里我们选no跳过 

十二、配置飞书回调事件

在这里插入图片描述

开启:

长连接

添加事件:

接收消息 im.message.receive_v1


十三、重启 OpenClaw

openclaw gateway restart 

十四、配置百炼模型

编辑:

~/.openclaw/openclaw.json 

添加 models:

"models":{"mode":"merge","providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"${DASHSCOPE_API_KEY}","api":"openai-completions","models":[{"id":"qwen-plus","name":"Qwen Plus","input":["text","image"]}]}}}

请注意:此处baseUrl填写的是百炼Coding Plan的url,百炼的普通url为

"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1"

随后在agents.defaults.model.primary这个键内修改默认模型:
例如:

bailian/kimi-k2.5 

如果需要多模型,则在agents.models下配置:

"models":{"bailian/kimi-k2.5":{},"openai-codex/gpt-5.4":{}}

重启网关:

openclaw gateway restart 

模型配置成功

在这里插入图片描述

十五、(题外话)OpenAI OAuth 登录

另外的,若想配置(或重新配置)openaiGPT且用网页登录认证(OAuth),则使用命令直接设置:

openclaw models auth login --provider openai-codex 

十六、【进阶】创建子 Agent

使用

openclaw agents add

可以进入交互式操作页面创建子Agent

也可以使用非交互式命令直接创建
基础格式(注意,一定要指定子Agent的workspace):

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --non-interactive 

示例:

openclaw agents add Engineer \--workspace ~/.openclaw/workspace-Engineer \--model openai-codex/gpt-5.4 \ --non-interactive 

高级设定模板:

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --agent-dir <agent_dir>\--model<model>\--bind feishu:default \ --non-interactive 

至此 OpenClaw + 飞书 + 百炼模型部署完成

Read more

OpenClaw基础-3-telegram机器人配置与加入群聊

OpenClaw基础-3-telegram机器人配置与加入群聊 💡 大家好,我是可夫小子,《小白玩转ChatGPT》专栏作者,关注AI编程、AI自动化和自媒体。 Openclaw的优势是接入各种聊天工作,在前面的文章里,已经介绍了如何接入飞书。但之前我也提到了,飞书的最大的问题是请求多的限制,以及无法在非认证企业账号下面组建群聊。但这些限制另一个聊天工具可以打破,那就是Telegram,今天就跟大家分享一下,如果在OpenClaw里面接入Telegram。 第一步:Openclaw端配置 通过命令openclaw config,local→channels→telegrams 这里等待输入API Token,接下来我们去Telegram里面获取 第二步:Telegram端配置 1. 1. 在聊天窗口找到BotFather,打开对话与他私聊 2. 3. 然后再输入一个机器人,再输入一个账号名username,这里面要求以Bot或者Bot结尾,这个是全网的id,要 2. /newbot 来创建一个机器人,输入一个名字name

【FPGA】高云FPGA实战:PLL锁相环IP核配置与多时钟域设计

1. 高云FPGA与PLL锁相环基础 在数字电路设计中,时钟信号就像系统的心跳,它决定了各个模块的工作节奏。而PLL(Phase Locked Loop,锁相环)则是这个心跳的精确调节器。高云FPGA内置的PLL IP核能够将输入时钟进行倍频、分频和相位调整,输出多个稳定的时钟信号。 我第一次接触高云FPGA的PLL是在一个需要多时钟域的项目中。当时系统需要同时处理视频数据和传感器数据,视频处理需要100MHz的时钟,而传感器接口只需要10MHz。如果使用外部晶振提供多个时钟源,不仅成本高,还会增加PCB设计的复杂度。这时候PLL的优势就体现出来了——只需一个50MHz的外部晶振,就能通过PLL生成所有需要的时钟。 高云FPGA的PLL IP核主要有以下特点: * 宽频率范围:支持3MHz到500MHz的输入时钟 * 多路输出:最多可输出5路独立时钟 * 精确控制:每路时钟可单独设置分频/倍频系数、占空比和相位偏移 * 低抖动:输出时钟抖动小于100ps,满足高速接口需求 2. 创建PLL IP核的完整流程 2.1 工程准备与环境配置 首先需要确保安装了高云FP

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践 * 0. 前言 * 1. 基于扩散模型的文本生成图像 * 2. 将文本输入编码为嵌入向量 * 3. 条件 UNet 模型中的文本数据融合机制 * 4. 使用 Stable Diffusion 模型生成图像 * 相关链接 0. 前言 在本节中,我们将为扩散模型添加文本控制能力。学习如何通过文字描述来引导图像生成过程,实现从"纯噪声+文本"生成图像,而不仅是从纯噪声生成。 1. 基于扩散模型的文本生成图像 在扩散模型的 UNet 模型训练流程中,我们仅训练模型从含噪图像中预测噪声。为实现文生图功能,需使用以下架构,将文本作为额外输入注入 UNet 模型: 这样的 UNet 模型称为条件 UNet 模型 ,或者更精确地说,是文本条件 UNet

【Agent】Claude code辅助verilog编程

【Agent】Claude code辅助verilog编程

摘要:在 2026 年,硬件描述语言(HDL)的开发门槛正在被 AI 重新定义。本文记录了一次硬核挑战:在不查阅任何寄存器手册、不手画状态转移图的情况下,仅凭 Claude Code 辅助,完成了一个包含 UART 通信、协议解析(FSM)及 PWM 控制的完整 FPGA 模块设计与验证。这是一次关于“AI 辅助芯片设计”的真实压力测试。 目录 1. 引言:Verilog 开发者的“中年危机” 2. 项目挑战:从串口到 LED 的全链路设计 3. 开发实录:Claude Code 的 RTL 设计能力 * 3.1