Windows 下部署 OpenClaw 与飞书 AI 机器人
在 Windows 11 环境下,通过 OpenClaw 可以方便地整合云端大模型(如千问)和本地模型(Ollama),并将其能力接入飞书群组。以下是完整的实战配置流程。
环境准备
为了保证依赖兼容性和脚本执行权限,建议先完成基础环境搭建。
安装 Node.js
部分依赖对新版 Node.js 支持尚不完善,推荐选择 v22.22.0 版本。下载对应系统的安装包直接运行即可。
安装完成后,以管理员身份打开 PowerShell 验证版本:
node -v
安装 Git
访问 Git 官网下载安装包,一路默认选项安装。完成后同样在终端检查版本信息是否生效。
安装 OpenClaw
配置执行策略
首次运行前需要放宽 PowerShell 的脚本执行限制,依次执行以下命令,输入 y 确认:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
一键安装脚本
使用管理员权限打开 PowerShell,运行官方安装脚本:
iwr -useb https://openclaw.ai/install.ps1 | iex
等待脚本执行完毕,无报错即表示安装成功。
新手引导与模型配置
执行初始化命令进入设置向导:
openclaw onboard --install-daemon
按提示选择 QuickStart,默认 Gateway 端口为 18789,绑定地址 127.0.0.1。模型选择环节推荐先配置 Qwen,系统会弹出登录认证窗口,注册登录后即可完成云端模型绑定。
若后续需要更换模型 Token,可运行 openclaw onboard 重新配置。
查看状态
常用维护命令如下:
# 检查版本
openclaw --version
# 检查系统健康
openclaw doctor
# 检查网关状态
openclaw gateway status
配置本地大模型 (Ollama)
OpenClaw 支持接入本地运行的 Ollama 服务。假设本地 Ollama 地址为 http://192.168.113.66:9095,需修改配置文件。
修改主配置文件
找到安装路径下的 openclaw.json(通常在 C:\Users\xxx\.openclaw),在 models 字段中补充 Ollama 配置:
"models": {
"mode": "merge",
"providers": {
"ollama"


