OpenCowork 实测:支持本地文件、飞书机器人的 Windows AI 助手(只需配置 Token)

目的

找一款window 本地ai助手,但有如下要求 1)windows一键安装,带gui界面,操作简单 2)直接操作本地文件,能生成和写入本地文件内容 3)配置token 即可,无需绑定账号登陆 

测试效果

OpenCowork 可直接操作本地电脑文件,并支持接入飞书机器人应用,实现类似 OpenClaw 的电脑操作能力;
但整体更适合本地文档生成、资料整理、代码或文本批量处理等场景。相比云端 AI,在生成速度、工具能力和复杂任务支持方面仍有差距,尤其在长文档生成和多工具协作时效率与稳定性较弱,因此更适合作为本地文件处理的辅助工具,而非替代云端 AI。

OpenCowork 很多自动化能力依赖python,你可以自己升级一下python,然后让OpenCowork 检测环境是不是最新的,并升级一下;

1 安装 OpenCowork 客户端

下载地址
https://github.com/AIDotNet/OpenCowork
找右侧侧 releases ,我这里是x64 所以下载amd

在这里插入图片描述


默认安装,换成磁盘路径,安装后客户端如下图

在这里插入图片描述

2 配置 token

点击左上角用户头像,点击头像下的设置,弹窗如下图,一直脱到最下面
输入打开完整版设置

在这里插入图片描述


选择模型,输入模型的api Key;联通性选择选择你使用的模型,点击检测即可
到这里配置完成,点击左侧工具栏的对话框,开始实际操作

在这里插入图片描述

3 测试

3.1 选择工具要操作的路径

最好选择一个只跟工作内容相关的干净的文件夹,并把需要的资料移入进文件夹内
这里历史测试:用桌面

在这里插入图片描述

3.2 测试功能

1)联网框的联网搜索,可根据实际情况选择启用和关闭

在这里插入图片描述


2) 输入后开始工作

在这里插入图片描述


3)测试效果
生成3页 word 5分钟,但也能接受(毕竟含网页搜索);豆包测试室1分钟(立马输出,1分钟生成完);
效果还算可以,毕竟花钱用token了;这种工具严重依赖于本地的skill,且本地生成速速远低于云厂商;毕竟你的能力是ai 工具能力 是低于云端AI服务。

在这里插入图片描述

4 添加skill

如下图:点击获取skill,会跳转至下拉地址https://skills.open-cowork.shop/dashboard,把获取的 skill 粘贴如下位置,点击发送请求

目前不推荐安装其它skill 日用满足,因为现在有skill 投毒问题

在这里插入图片描述

下面为再次申请skill的地址

在这里插入图片描述

5 app 聊天接入

这里试了企业微信,因为需要:WS 中继地址,就没做深入的研究;飞书测试成功了;

聊天频有 Feishu Bot 、DingTalk Bot 、WeCom Bot、QQ Bot、Telegram Bot、 Discord Bot 、WhatsApp Bot , 目前不确定哪个不需要内网穿透 or 公网ip就能用; 

5.1 接入飞书

5.1 创建应用

在这里插入图片描述
在这里插入图片描述

5.2 应用添加机器人能力并导入权限

如下图:添加机器人能力,然后点击菜单的权限管理: 导入权限如下

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "cardkit:card:write" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } 
在这里插入图片描述

5.3 查看APP ID和秘钥

如下图:点击appId 和秘钥

在这里插入图片描述

5.4 发布应用

点击菜单的版本管理和发布,填写信息,发布应用

在这里插入图片描述

5.5 配置事件与回调改成长连接

在这里插入图片描述


然后点击下方的添加时间按钮:输入 im.message.receive_v1
切记:重新部署应用,这里发布了新版本 1.0.1

在这里插入图片描述

5.6 配置openCowork

点击左侧的 Feishu Bot,然后粘贴应用 appId 和秘钥
然后滚动到最下方:允许读取的路径可选配,然后启用

在这里插入图片描述

5.7 测试

1)应用商店下载飞书并登陆: 在下方更多菜单 的工作台,添加常用应用,搜索oepnCoWork;
2)然后电脑OpenCowork对话框的加号,勾选聊天频道飞书;
3)点击机器人输入现在几点了,桌面上有什么等内容,就能自动回复和操作电脑上了;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

整体体验下来,OpenCowork 更适合用于 本地文档生成、资料整理、代码或文本批量处理 等需要直接操作本地文件的场景。

不过相比云端 AI 平台,它在 生成速度、工具能力和任务复杂度支持 上仍有差距;尤其在长文档生成、多工具协作等场景下,效率和稳定性不如云端服务。因此更适合作为 本地文件处理的辅助工具,而不是完全替代云端 AI。

Read more

前端小练习——星辰宇宙(JS没有上限!!!)

前端小练习——星辰宇宙(JS没有上限!!!)

前言:在刚开始学习前端的时候,我们会学习到前端三件套中的JavaScript,可能那时候读者没有觉得JavaScript这个语言有多么的牛逼,本篇文章将会使用一个炫酷的案例来刷新你对JavaScript这个语言的认知与理解。 ✨✨✨这里是秋刀鱼不做梦的BLOG ✨✨✨想要了解更多内容可以访问我的主页秋刀鱼不做梦-ZEEKLOG博客 先让我们看一下最终的结果: 在开始讲解这个炫酷的案例之前,先让我们了解一下本案例所需的前置知识: Three.js:一个用于创建和显示3D图形的JavaScript库。代码中导入了Three.js的核心库和轨道控制库(OrbitControls),用于处理3D场景的创建和相机控制。WebGL:用于在网页中绘制3D图形的底层API。Three.js封装了WebGL,使得3D渲染变得更简单。模块化 JavaScript:使用 ES6 的模块导入语法 (import) 引入外部库,使代码结构更加清晰。着色器编程:自定义顶点和片段着色器,通过 onBeforeCompile 方法替换默认着色器,控制点的大小、颜色和运动效果。缓冲几何体:

前端数据埋点

当我们想知道:“这个按钮有多少人点了?”、“用户在这个页面停留了多久?”、“哪个渠道来的用户转化率最高?”。 回答这些问题的核心技术手段,就是埋点(Tracking)。 一、什么是埋点?基本逻辑是什么? 1.1 定义 简单来说,埋点就是在特定的位置“埋”下一段代码或配置,当用户触发特定行为(如点击、浏览、输入)时,自动采集相关数据并发送到服务器的过程。 如果把网站比作一家超市,埋点就是安装在货架、收银台、门口的摄像头和传感器,记录顾客的行走路线、拿起商品的次数以及最终购买的行为。 1.2 基本逻辑流程 一个完整的埋点流程通常包含以下五个步骤: 1. 触发(Trigger): 用户产生行为(点击按钮、页面加载、接口请求等)。 2. 采集(Collect): 前端代码捕获该行为,并收集上下文信息(时间、URL、用户 ID、设备信息等)

Chatbot UI Open WebUI 实战指南:从零构建高可用对话界面

背景痛点:传统 Chatbot UI 的三大困境 在构建 Chatbot 应用时,用户界面(UI)往往是决定体验成败的关键。然而,许多开发者,包括我自己,在初期都曾陷入传统实现方式的泥潭。总结下来,主要有三大痛点: 1. 动态渲染性能瓶颈:当对话历史逐渐变长,传统的列表渲染方式会导致 DOM 节点数量激增。每次新增一条消息,都可能触发整个列表或大片区域的重排与重绘,在移动端或低性能设备上,卡顿感会非常明显。用户输入后,等待界面“刷出来”的延迟,极大地破坏了对话的流畅感。 2. 多端适配的复杂性:我们希望 Chatbot 能无缝运行在桌面浏览器、移动端 H5,甚至未来可能嵌入到 Electron 或 Tauri 桌面应用中。使用传统框架(如直接操作 DOM 或早期 jQuery 模式)