Windows 环境下部署 OpenClaw 并接入 AI 模型与飞书
在本地构建大模型应用并集成到即时通讯工具中,是提升工作效率的不错方案。本文将介绍如何在 Windows 11 上安装 OpenClaw,配置通义千问(Qwen)云端模型或 Ollama 本地模型,并将能力接入飞书群组。
环境准备
OpenClaw 依赖 Node.js 和 Git 环境。为了避免后续出现依赖冲突或版本不兼容的问题,建议先安装基础工具。
1. 安装 Node.js
访问 Node.js 官网下载对应系统的安装包。虽然最新版本功能更强,但考虑到部分依赖包的适配情况,本文推荐使用 v22.22.0 版本。下载 node-v22.22.0-x64.msi 后直接双击安装即可。
安装完成后,以管理员身份打开 PowerShell,执行以下命令验证版本:
node -v
2. 安装 Git 前往 Git 官网下载安装程序,选择默认选项完成安装。安装结束后同样在终端检查版本信息是否生效。
安装 OpenClaw
1. 设置脚本执行策略
PowerShell 默认限制脚本运行,需要先放宽当前用户的权限。依次执行以下命令,根据提示输入 y 确认:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
2. 一键安装 使用管理员权限打开 PowerShell,运行官方提供的安装脚本。如果网络通畅,命令执行后会静置片刻等待安装完成:
iwr -useb https://openclaw.ai/install.ps1 | iex
3. 初始化配置 安装完成后,执行新手引导命令:
openclaw onboard --install-daemon
按向导选择 QuickStart,默认 Gateway 端口为 18789,绑定地址 127.0.0.1。在模型选择环节,这里可以优先选择 Qwen 模型,随后会弹出登录认证窗口。注册登录成功后,即可进入下一步。
配置本地大模型
如果你希望使用本地部署的 Ollama 模型,需要在配置文件中指定网关地址。找到安装路径下的 openclaw.json 文件(通常在 %USERPROFILE%\.openclaw\),修改 models 字段,填入 Ollama 的地址(示例中使用的是局域网 IP):
"models": {
"mode": "merge",
"providers": {
"ollama": {
"baseUrl": "http://192.168.113.66:9095/v1"


