【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

Windows11安装OpenClaw,配置千问Qwen模型及配置服务器本地模型Ollama,接入飞书机器人

第一步、安装Nodejs

1、减少后续各种报错情况,先安装Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统,24版本太新,有些依赖不适配,本文选择22.22.0版本,node-v22.22.0-x64.msi 直接双击安装即可。

在这里插入图片描述


2、安装完成看一下版本信息,用管理员权限打开win的PowerShell

在这里插入图片描述


3、执行 node -v

在这里插入图片描述

第二步、安装Git

1、安装Git 访问地址 https://git-scm.com/install/windows 安装文件 Git-2.53.0-64-bit.exe

在这里插入图片描述


2、选默认选项安装即可,安装完成查看版本信息是否生效

在这里插入图片描述

第三步、安装Openclaw

1、开通安装权限,依次执行命令,键盘输入y即可

允许当前用户运行本地和下载的脚本 Set-ExecutionPolicy RemoteSigned -Scope CurrentUser 临时放宽当前 PowerShell 进程的脚本执行限制 Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass 
在这里插入图片描述

2、以管理员权限打开powershell 执行一键安装脚本
运行命令iwr -useb https://openclaw.ai/install.ps1 | iex 如果不报错静静等待即可。

在这里插入图片描述


在这里插入图片描述


3、进行新手设置 执行命令openclaw onboard --install-daemon 选择QuickStart,默认gateway端口18789,bind为127.0.0.1 下一步选择模型,这里选择Qwen,然后弹出千问的登录认证

在这里插入图片描述


注册登录成功

在这里插入图片描述


4、远程控制渠道,这里选择飞书,选择下载安装plugin。

在这里插入图片描述

5、登录飞书 https://open.feishu.cn/app/cli_a93a790fdeb89cc9/baseinfo

在这里插入图片描述


获取Secret

在这里插入图片描述


复制后再cmd中右键即可显示按Enter,再输入App ID

在这里插入图片描述


provider、skills、hooks跳过即可,后续可单独配置。之后弹出gateway的cmd前台信息。

在这里插入图片描述


找到默认的安装路径C:\Users\xxx.openclaw中的openclaw.json文件,找到里面的token用来验证登录

在这里插入图片描述


json中找到gateway模块中token

在这里插入图片描述


小龙虾界面访问:输入访问地址http://127.0.0.1:18789#token=bb817f5fd0867xxxxxxxxx5就可以看到小龙虾界面了。

在这里插入图片描述

打开openclaw后台可以进行对话, 使用千问模型. 使用命令openclaw onboard可重新配置大模型token,输入对应的API的key即可.

在这里插入图片描述


这里没有配置大模型api 输入命令openclaw configure 可进行模型配置。openclaw models list 查看已配置模型。登录国内大厂获取免费token额度,或者付费订阅即可。
查看安装状态命令

# 检查 OpenClaw 版本 openclaw --version# 检查系统健康状态 openclaw doctor # 检查 Gateway 状态 openclaw gateway status 

配置本地大模型

在openclaw.json中配置Ollama的地址192.168.113.66:9095即可

"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192}]}}}
"agents":{"defaults":{"model":{"primary":"ollama/qwen3:235b","fallbacks":[]},"models":{"ollama/qwen3":{"alias":"Qwen3-235B"}},"workspace":"C:\\Users\\ywh\\.openclaw\\workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}}

然后再agent路径C:\Users\ywh.openclaw\agents\main\agent替换auth-profiles.json的内容

{"version":1,"profiles":{"ollama:default":{"provider":"ollama","type":"api_key","key":"ollama-local"}},"usageStats":{"ollama:default":{"errorCount":0,"lastUsed":1773295358877}}}

同路径再添加一个models.json文件

{"providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192,"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"api":"openai-completions"}],"apiKey":"ollama-local"}}}

重启网关openclaw gateway restart 即可。

第四步、配置飞书

前边通过channel创建过飞书连接, 在飞书开放平台创建机器人选择发布

在这里插入图片描述


在左侧添加应用能力–>机器人

在这里插入图片描述


下一步开通权限, 批量开通权限脚本如下

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","cardkit:card:read","cardkit:card:write","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}
在这里插入图片描述


添加事件
im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群

在这里插入图片描述


修改完要发布

在这里插入图片描述


重启openclaw的gateway 直接运行 openclaw gateway
登录电脑端飞书,创建群组,群组设置添加机器人.

在这里插入图片描述


搜索之前发布的应用名称

在这里插入图片描述


在这里插入图片描述


然后就可以让小龙虾帮你干活了

在这里插入图片描述

Read more

GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明 OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。 ⚠️ Warning 登录 GitHub Copilot 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。 推荐直接用免费的free账号登录即可。 二、插件安装 在 VS Code 扩展市场安装并启用: * GitHub Copilot * GitHub Copilot Chat * OAI Compatible Provider for Copilot (johnny-zhao.

【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯结构化的定义 (Structuration: Definition) * 1. 结构化的定义 * 2. 结构化的示例 * 3. 技术领域中的结构化数据 * 💯有序的规则的重要性 (Importance of Orderly Rules) * 1. 信息的组织和转变 * 2. 字典中的例子 * 3. 规则的有序性 * 4. 生活中的例子 * 💯结构化的实际应用 (Practical Applications of Structuration) * 1. 结构化的广泛应用 * 2. 现代科技领域中的重要性 * 3. 结构化的意义 * 💯小结 💯前言 在人工智能生成内容(AIGC)的浪潮中,信息的高效组织和管理成为突破瓶颈的关键能力。结构化,作为一种通过明确规则和逻辑对信息进行处理的方法,不仅奠定了高效信息管理的基础,

IntelliJ IDEA中GitHub Copilot完整使用教程:从安装到实战技巧

IntelliJ IDEA中GitHub Copilot完整使用教程:从安装到实战技巧

IntelliJ IDEA 中 AI 工具 Codex (GitHub Copilot) 完整使用教程 在 IntelliJ IDEA 中,Codex 的能力主要通过 GitHub Copilot 插件体现。它是目前最强大的 AI 编程助手,能够基于 OpenAI Codex 模型提供实时代码建议、业务逻辑实现以及复杂的重构支持。 一、 安装与环境配置 1. 插件安装 1. 打开 IntelliJ IDEA,进入设置:File -> Settings (Windows) 或 IntelliJ IDEA -> Settings (Mac)。 2. 在左侧菜单选择 Plugins,

2026年第2期:Buzz:基于Whisper的离线语音转写神器,隐私安全拉满

项目核心信息速览 项目信息详细说明项目地址chidiwilliams/buzz(GitHub直达,打工人必备工具)核心技术栈Python,基于OpenAI Whisper模型,支持CUDA/Apple Silicon硬件加速核心定位全平台离线语音转文字/翻译工具,本地处理无隐私泄露风险核心功能离线音频转写、实时麦克风转录、说话人识别、多语言翻译、多格式导出支持平台Windows、macOS、Linux(全平台覆盖,适配不同办公环境)最新热度2026-01-14单日GitHub星标暴涨280颗,成为办公效率工具领域黑马 一、为啥Buzz突然火了?打工人都懂的语音转写痛点被解决了 作为每天要处理大量会议录音、客户访谈的打工人,我对语音转写工具的需求太强烈了。之前试过不少在线工具,要么要上传音频文件——客户的商业对话、公司的内部会议记录,传上去总担心隐私泄露;要么没网就直接罢工,出差在外想转写个录音都不行;更别说有些工具按分钟收费,每月下来又是一笔开支。 还有个头疼的点,很多工具在有背景噪音或者多人对话时,转写准确率直接崩了,后期校对的时间比自己手动打字还长。直到我发现了B