【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

Windows11安装OpenClaw,配置千问Qwen模型及配置服务器本地模型Ollama,接入飞书机器人

第一步、安装Nodejs

1、减少后续各种报错情况,先安装Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统,24版本太新,有些依赖不适配,本文选择22.22.0版本,node-v22.22.0-x64.msi 直接双击安装即可。

在这里插入图片描述


2、安装完成看一下版本信息,用管理员权限打开win的PowerShell

在这里插入图片描述


3、执行 node -v

在这里插入图片描述

第二步、安装Git

1、安装Git 访问地址 https://git-scm.com/install/windows 安装文件 Git-2.53.0-64-bit.exe

在这里插入图片描述


2、选默认选项安装即可,安装完成查看版本信息是否生效

在这里插入图片描述

第三步、安装Openclaw

1、开通安装权限,依次执行命令,键盘输入y即可

允许当前用户运行本地和下载的脚本 Set-ExecutionPolicy RemoteSigned -Scope CurrentUser 临时放宽当前 PowerShell 进程的脚本执行限制 Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass 
在这里插入图片描述

2、以管理员权限打开powershell 执行一键安装脚本
运行命令iwr -useb https://openclaw.ai/install.ps1 | iex 如果不报错静静等待即可。

在这里插入图片描述


在这里插入图片描述


3、进行新手设置 执行命令openclaw onboard --install-daemon 选择QuickStart,默认gateway端口18789,bind为127.0.0.1 下一步选择模型,这里选择Qwen,然后弹出千问的登录认证

在这里插入图片描述


注册登录成功

在这里插入图片描述


4、远程控制渠道,这里选择飞书,选择下载安装plugin。

在这里插入图片描述

5、登录飞书 https://open.feishu.cn/app/cli_a93a790fdeb89cc9/baseinfo

在这里插入图片描述


获取Secret

在这里插入图片描述


复制后再cmd中右键即可显示按Enter,再输入App ID

在这里插入图片描述


provider、skills、hooks跳过即可,后续可单独配置。之后弹出gateway的cmd前台信息。

在这里插入图片描述


找到默认的安装路径C:\Users\xxx.openclaw中的openclaw.json文件,找到里面的token用来验证登录

在这里插入图片描述


json中找到gateway模块中token

在这里插入图片描述


小龙虾界面访问:输入访问地址http://127.0.0.1:18789#token=bb817f5fd0867xxxxxxxxx5就可以看到小龙虾界面了。

在这里插入图片描述

打开openclaw后台可以进行对话, 使用千问模型. 使用命令openclaw onboard可重新配置大模型token,输入对应的API的key即可.

在这里插入图片描述


这里没有配置大模型api 输入命令openclaw configure 可进行模型配置。openclaw models list 查看已配置模型。登录国内大厂获取免费token额度,或者付费订阅即可。
查看安装状态命令

# 检查 OpenClaw 版本 openclaw --version# 检查系统健康状态 openclaw doctor # 检查 Gateway 状态 openclaw gateway status 

配置本地大模型

在openclaw.json中配置Ollama的地址192.168.113.66:9095即可

"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192}]}}}
"agents":{"defaults":{"model":{"primary":"ollama/qwen3:235b","fallbacks":[]},"models":{"ollama/qwen3":{"alias":"Qwen3-235B"}},"workspace":"C:\\Users\\ywh\\.openclaw\\workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}}

然后再agent路径C:\Users\ywh.openclaw\agents\main\agent替换auth-profiles.json的内容

{"version":1,"profiles":{"ollama:default":{"provider":"ollama","type":"api_key","key":"ollama-local"}},"usageStats":{"ollama:default":{"errorCount":0,"lastUsed":1773295358877}}}

同路径再添加一个models.json文件

{"providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192,"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"api":"openai-completions"}],"apiKey":"ollama-local"}}}

重启网关openclaw gateway restart 即可。

第四步、配置飞书

前边通过channel创建过飞书连接, 在飞书开放平台创建机器人选择发布

在这里插入图片描述


在左侧添加应用能力–>机器人

在这里插入图片描述


下一步开通权限, 批量开通权限脚本如下

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","cardkit:card:read","cardkit:card:write","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}
在这里插入图片描述


添加事件
im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群

在这里插入图片描述


修改完要发布

在这里插入图片描述


重启openclaw的gateway 直接运行 openclaw gateway
登录电脑端飞书,创建群组,群组设置添加机器人.

在这里插入图片描述


搜索之前发布的应用名称

在这里插入图片描述


在这里插入图片描述


然后就可以让小龙虾帮你干活了

在这里插入图片描述

Read more

Windows 环境下 llama.cpp 编译 + Qwen 模型本地部署全指南

在大模型落地场景中,本地轻量化部署因低延迟、高隐私性、无需依赖云端算力等优势,成为开发者与 AI 爱好者的热门需求。本文聚焦 Windows 10/11(64 位)环境,详细拆解 llama.cpp 工具的编译流程(支持 CPU/GPU 双模式,GPU 加速需依赖 NVIDIA CUDA),并指导如何通过 modelscope 下载 GGUF 格式的 Qwen-7B-Chat 模型,最终实现模型本地启动与 API 服务搭建。 1.打开管理员权限的 PowerShell/CMD,执行以下命令克隆代码: git clone https://github.com/ggml-org/llama.cpp mkdir

VSCode + Copilot下:配置并使用 DeepSeek

以下是关于在 VSCode + Copilot 中,通过 OAI Compatible Provider for Copilot 插件配置使用 DeepSeek 系列模型 (deepseek-chat, deepseek-reasoner, deepseek-coder) 的完整汇总指南。 🎯 核心目标 通过该插件,将支持 OpenAI API 格式的第三方大模型(此处为 DeepSeek)接入 VSCode 的官方 Copilot 聊天侧边栏,实现调用。 📦 第一步:准备工作 在开始配置前,确保完成以下准备: 步骤操作说明1. 安装插件在 VSCode 扩展商店搜索并安装 OAI Compatible Provider for Copilot。这是连接 Copilot 与第三方模型的核心桥梁。2. 获取 API

【FPGA+OpenCV+C语言】:三剑合璧打造实时图像处理引擎

第一章:FPGA的C语言图像算法概述 在现代数字图像处理领域,现场可编程门阵列(FPGA)因其高度并行的硬件架构和低延迟特性,成为实现高性能图像算法的理想平台。随着高层次综合(HLS)技术的发展,开发者可以使用C或C++语言描述图像处理算法,并通过工具链自动转换为可在FPGA上运行的硬件逻辑,显著降低了硬件开发门槛。 为何选择C语言进行FPGA图像处理 * 代码可读性强,便于算法快速原型设计 * HLS工具支持标准C语法,能高效映射到硬件结构 * 便于与传统软件图像处理流程集成和验证 典型图像处理操作的C语言实现 例如,实现灰度化是图像预处理中的常见步骤,其算法将RGB三通道像素转换为单通道灰度值。以下是基于权重法的灰度转换代码示例: // 输入:width x height 的RGB图像 // 输出:对应灰度图像 void rgb_to_gray(unsigned char *rgb, unsigned char *gray, int width, int height) { for (int i = 0;

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程 一、学生认证资格与前期准备 1.1 认证资格要求 GitHub Copilot Pro 为经官方验证的全日制学生、在职教师及热门开源项目维护者提供免费订阅权限。认证需满足以下核心条件: * 学生需提供有效学籍证明(学生卡/学信网认证) * 教师需提供工作证/教师资格证 * 使用学校官方邮箱(以.edu或.edu.cn结尾) * 账户需通过双重身份认证(2FA) 1.2 账户设置准备 1. 绑定教育邮箱 在GitHub账户设置中添加学校邮箱,并完成验证: * 进入Settings → Emails → Add email address * 输入形如[email protected]的邮箱 * 登录学校邮箱查收验证邮件并确认 2. 完善个人信息 在Profile → Edit profile中填写: