【图文】Windows + WSL + Ubuntu 安装 OpenClaw 全套流程(飞书机器人 + 百炼模型)

目录

本文记录 Windows 通过 WSL + Ubuntu 安装 OpenClaw 的完整流程,包括:

  • WSL 安装
  • Ubuntu 环境准备
  • Node / NVM 安装
  • OpenClaw 初始化
  • 飞书机器人接入
  • 百炼模型配置
  • 子 Agent 创建

所有命令均可直接复制执行。


一、安装 WSL

先在 PowerShell 执行:

wsl --update wsl --status wsl --version wsl --set-default-version 2 wsl --list--verbose

安装 Ubuntu 22.04:

wsl --install Ubuntu-22.04 

安装完成后打开 Ubuntu 终端。


二、安装基础组件

更新系统:

sudoapt update &&sudoapt upgrade -y

安装基础工具:

sudoaptinstall-y build-essential curlgitunzipzip ca-certificates jq 

额外安装 1Panel(解决 docker 环境问题)

sudobash-c"$(curl-sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh)"

三、安装 Node.js(通过 nvm)

1 安装 nvm

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash

保存全局设置:

source ~/.bashrc 

检查:

nvm --version

2 安装 Node

nvm install22 nvm use 22

检查:

node--version

四、安装 OpenClaw

安装:

npminstall-g openclaw@latest 

检查版本:

openclaw --version

初始化:

openclaw onboard --install-daemon 

五、OpenClaw 初始化配置


这个是问要不要在本机安装,选yes

在这里插入图片描述


初始化方式,选择快速启动(QuickStart)

在这里插入图片描述


选择大模型,百炼不在这些选项中,先选择最后一个选项│ ● Skip for now 跳过,之后再设置

在这里插入图片描述


选择大模型提供商,先选不限提供商All providers

在这里插入图片描述


选择默认模型,这里选第一个保持当前选项(默认)就好

在这里插入图片描述


配置channel,这个直接跳到最下面选跳过

在这里插入图片描述


搜索提供商,我们之后用本地浏览器搞,直接跳过。
配置本地浏览器–>OpenClaw + Google Chrome(deb)+ WSLg:可视化浏览器自动化与人工接管教程

在这里插入图片描述


询问是否现在配置skill,跳过。


六、Hooks 配置(重要)

在这里插入图片描述


这个选项很重要,选择openclaw的预设动作。
第一个选项是在 Gateway 启动时运行 BOOT.md,这个后期有需要自己加。
第二个是注入额外的工作区引导文件,后期再加。
第三个是把所有命令事件写到日志,这个必须开。
第四个保留对话上下文记忆,这个也要开(养龙虾)。


七、打开 Web UI

在这里插入图片描述

网关页面的打开方式,webui比较方便
随后在控制台日志中的复制整串url(带token)

在这里插入图片描述

复制到浏览器打开即可。

成功打开网关


成功打开网关页面


八、安装飞书插件

推荐 官方插件

先安装飞书 SDK:

npminstall-g @larksuiteoapi/node-sdk 

再安装插件:

openclaw plugins install @openclaw/feishu 

删除异常插件(谨慎操作):

rm-rf ~/.openclaw/extensions/feishu 

九、第三方飞书插件(备用方案)

openclaw plugins install @m1heng-clawd/feishu 

安装失败可以手动安装

curl-O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.3.tgz openclaw plugins install ./feishu-0.1.3.tgz 

十、飞书权限配置(注意先做好飞书机器人设置,再配置channel)

飞书开放平台创建应用,配置机器人能力

在这里插入图片描述


导入以下权限:

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","base:app:copy","base:app:create","base:app:read","base:app:update","bitable:app","bitable:app:readonly","contact:contact.base:readonly","contact:department.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:chat:read","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource","sheets:spreadsheet","sheets:spreadsheet.meta:read","sheets:spreadsheet.meta:write_only","sheets:spreadsheet:create","sheets:spreadsheet:read","sheets:spreadsheet:readonly","sheets:spreadsheet:write_only"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}

最后记得发布应用


十一、配置飞书channel

执行:

openclaw channels add
在这里插入图片描述


选择飞书

在这里插入图片描述


选择输入app密钥
appid和密钥同样在飞书开放平台获取

在这里插入图片描述


并粘贴到控制台中

接下来

在这里插入图片描述


链接方式,选择长连接(WebSocket)

在这里插入图片描述


对话模式,这里选open(不限制对话),(真正的对话权限可以到飞书控制台设置)

接下来还有其他的一些选项

配置项说明选择
Feishu account飞书账号选择 default
domain域名根据区域选择(国内选 feishu,国际选 lark)

选择完后这里会再跳一个Select a channel选项,我们跳到最下面选Finished就结束了。

接下来还有对这个channel的一些设置:

Configure DM access policies now? → 选 Yes,再选择open,配置所有人可对话(也可以选no跳过,后续修改) Add display names for these accounts? → 给channel加名字,选 No Bind configured channel accounts to agents now? → 将这个channel配置给某个agent,如果你有多个agent可以配置一下,这里我们选no跳过 

十二、配置飞书回调事件

在这里插入图片描述

开启:

长连接

添加事件:

接收消息 im.message.receive_v1


十三、重启 OpenClaw

openclaw gateway restart 

十四、配置百炼模型

编辑:

~/.openclaw/openclaw.json 

添加 models:

"models":{"mode":"merge","providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"${DASHSCOPE_API_KEY}","api":"openai-completions","models":[{"id":"qwen-plus","name":"Qwen Plus","input":["text","image"]}]}}}

请注意:此处baseUrl填写的是百炼Coding Plan的url,百炼的普通url为

"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1"

随后在agents.defaults.model.primary这个键内修改默认模型:
例如:

bailian/kimi-k2.5 

如果需要多模型,则在agents.models下配置:

"models":{"bailian/kimi-k2.5":{},"openai-codex/gpt-5.4":{}}

重启网关:

openclaw gateway restart 

模型配置成功

在这里插入图片描述

十五、(题外话)OpenAI OAuth 登录

另外的,若想配置(或重新配置)openaiGPT且用网页登录认证(OAuth),则使用命令直接设置:

openclaw models auth login --provider openai-codex 

十六、【进阶】创建子 Agent

使用

openclaw agents add

可以进入交互式操作页面创建子Agent

也可以使用非交互式命令直接创建
基础格式(注意,一定要指定子Agent的workspace):

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --non-interactive 

示例:

openclaw agents add Engineer \--workspace ~/.openclaw/workspace-Engineer \--model openai-codex/gpt-5.4 \ --non-interactive 

高级设定模板:

openclaw agents add<agent_id>\--workspace<workspace_dir>\ --agent-dir <agent_dir>\--model<model>\--bind feishu:default \ --non-interactive 

至此 OpenClaw + 飞书 + 百炼模型部署完成

Read more

【GitHub项目推荐--TypeTale(字字动画):免费AIGC视频创作工具】非开源

简介 TypeTale (字字动画)是一款专为内容创作者打造的完全免费的AIGC创作软件,主要用于小说推文、AI短剧、AI电影制作。它集成了多种AI能力,提供从文案处理到视频生成的全链路创作支持,承诺现有功能与基础功能永久免费。 🔗 GitHub地址 : https://github.com/TypeTale/TypeTale 🎬 核心价值 : AIGC视频生成 · 小说推文 · AI短剧 · 完全免费 · 中文优化 项目背景 : * 内容创作 :短视频内容创作需求增长 * AIGC技术 :AI生成内容技术成熟 * 成本控制 :降低视频制作成本需求 * 中文优化 :中文内容创作工具需求 * 开源生态 :开源创作工具生态 项目特色 : * 🆓 完全免费 :永久免费使用 * 🇨🇳 中文优化 :专为中文优化 * 🤖 AI集成 :多AI能力集成 * 🎬 视频生成 :全链路视频生成 * 🔧 易用性 :简单易用界面 技术亮点 : * 多模型支持 :支持多种AI模型 * ComfyUI集成 :深度ComfyUI集成 * 工作流系统

告别996:GitHub Copilot将我的开发效率提升300%的实战记录

告别996:GitHub Copilot将我的开发效率提升300%的实战记录

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕AI这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 告别996:GitHub Copilot将我的开发效率提升300%的实战记录 * 引言:从疲惫到高效 * 什么是GitHub Copilot?🤖 * 效率提升300%的核心场景 * 1. 快速生成样板代码 * 2. 自动编写单元测试 * 3. 智能调试与注释 * 集成Copilot到工作流 * 步骤1:设置合理的期望 * 步骤2:结合IDE使用 * 步骤3:代码审查与调整 * 高级用法:超越代码生成 * 数据库查询优化 * API接口设计 * 正则表达式助手 * 数据支撑:效率提升分析 * 避坑指南:常见问题与解决 * 1. 可能生成过时或不安全代码

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/

深入解析Xilinx 7系FPGA核心资源:从IO单元到CLB架构

1. Xilinx 7系FPGA硬件架构概览 Xilinx Kintex-7系列FPGA采用28nm工艺制程,在性能、功耗和成本之间实现了出色的平衡。我第一次接触K7芯片是在一个高速数据采集项目中,当时就被它灵活的架构设计所吸引。与前辈Virtex-6相比,K7在保持高性能的同时,功耗降低了约30%,这对需要长时间运行的嵌入式系统来说是个重大利好。 整个7系列FPGA采用统一的架构设计,包含几个关键组成部分:可编程输入输出单元(IOB)、可配置逻辑块(CLB)、时钟管理模块(CMT)、块存储器(BRAM)和数字信号处理单元(DSP48E1)。这些资源通过丰富的布线网络相互连接,形成完整的可编程系统。 以XC7K325T为例,它包含326,080个逻辑单元、16,020KB的块RAM和840个DSP切片。这种资源配置使其非常适合需要大量并行计算的应用场景,比如实时图像处理、高速信号采集等。在实际项目中,我经常用这款芯片来实现多通道数据预处理,它的并行处理能力可以轻松应对GHz级采样率的数据流。 2. 可编程IO单元深度解析 2.1 SelectIO技术架构 7系FPGA的I