Windows 安装 OpenClaw 配置 Qwen 及 Ollama 本地模型接入飞书机器人
Windows 系统下通过 Node.js 和 Git 环境部署 OpenClaw 工具,集成千问 Qwen 云端模型与 Ollama 本地大模型,并配置飞书开放平台机器人实现群聊交互。步骤涵盖脚本权限设置、网关启动、模型配置文件修改及飞书应用权限开通。

Windows 系统下通过 Node.js 和 Git 环境部署 OpenClaw 工具,集成千问 Qwen 云端模型与 Ollama 本地大模型,并配置飞书开放平台机器人实现群聊交互。步骤涵盖脚本权限设置、网关启动、模型配置文件修改及飞书应用权限开通。

减少后续各种报错情况,先安装 Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统。24 版本太新,有些依赖不适配,本文选择 22.22.0 版本,node-v22.22.0-x64.msi 直接双击安装即可。
安装完成看一下版本信息,用管理员权限打开 Windows 的 PowerShell。
执行 node -v。
安装 Git 访问地址 https://git-scm.com/install/windows,安装文件 Git-2.53.0-64-bit.exe。
选默认选项安装即可,安装完成查看版本信息是否生效。
# 允许当前用户运行本地和下载的脚本
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
# 临时放宽当前 PowerShell 进程的脚本执行限制
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
以管理员权限打开 PowerShell 执行一键安装脚本。
运行命令 iwr -useb https://openclaw.ai/install.ps1 | iex,如果不报错静静等待即可。
进行新手设置,执行命令 openclaw onboard --install-daemon,选择 QuickStart,默认 gateway 端口 18789,bind 为 127.0.0.1。下一步选择模型,这里选择 Qwen,然后弹出千问的登录认证。
注册登录成功。
远程控制渠道,这里选择飞书,选择下载安装 plugin。
登录飞书 https://open.feishu.cn/app/cli_a93a790fdeb89cc9/baseinfo。
获取 Secret。
复制后再 cmd 中右键即可显示按 Enter,再输入 App ID。
provider、skills、hooks 跳过即可,后续可单独配置。之后弹出 gateway 的 cmd 前台信息。
找到默认的安装路径 C:\Users\xxx.openclaw 中的 openclaw.json 文件,找到里面的 token 用来验证登录。
json 中找到 gateway 模块中 token。
OpenClaw 界面访问:输入访问地址 http://127.0.0.1:18789#token=bb817f5fd0867xxxxxxxxx5 就可以看到 OpenClaw 界面了。
打开 OpenClaw 后台可以进行对话,使用千问模型。使用命令 openclaw onboard 可重新配置大模型 token,输入对应的 API 的 key 即可。
这里没有配置大模型 api,输入命令 openclaw configure 可进行模型配置。openclaw models list 查看已配置模型。登录国内大厂获取免费 token 额度,或者付费订阅即可。
查看安装状态命令:
# 检查 OpenClaw 版本
openclaw --version
# 检查系统健康状态
openclaw doctor
# 检查 Gateway 状态
openclaw gateway status
在 openclaw.json 中配置 Ollama 的地址 192.168.113.66:9095 即可。
"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192}]}}}
"agents":{"defaults":{"model":{"primary":"ollama/qwen3:235b","fallbacks":[]},"models":{"ollama/qwen3":{"alias":"Qwen3-235B"}},"workspace":"C:\Users\ywh\.openclaw\workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}}
然后再 agent 路径 C:\Users\ywh.openclaw\agents\main\agent 替换 auth-profiles.json 的内容。
{"version":1,"profiles":{"ollama:default":{"provider":"ollama","type":"api_key","key":"ollama-local"}},"usageStats":{"ollama:default":{"errorCount":0,"lastUsed":1773295358877}}}
同路径再添加一个 models.json 文件。
{"providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192,"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite"
重启网关 openclaw gateway restart 即可。
前边通过 channel 创建过飞书连接,在飞书开放平台创建机器人选择发布。
在左侧添加应用能力–>机器人。
下一步开通权限,批量开通权限脚本如下。
{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application.self_manage","application:bot.menu:write","cardkit:card:read","cardkit:card:write","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}
添加事件
修改完要发布。
重启 OpenClaw 的 gateway,直接运行 openclaw gateway。
登录电脑端飞书,创建群组,群组设置添加机器人。
搜索之前发布的应用名称。
然后就可以让 OpenClaw 帮你干活了。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online