别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

目录

先说结论:10 分钟搭起“人机共管”的赛博办公室

一、整体部署与使用流程(先看全貌)

二、项目背景:DeskClaw 在解决什么问题?

三、环境准备:Docker Desktop 是唯一核心

步骤 1:安装 Docker Desktop

步骤 2:准备代码目录与项目文件

四、一键启动:Docker Compose 部署

步骤 1:启动服务

步骤 2:获取初始账号密码

步骤 3:浏览器访问平台

五、安装完成后的基本操作

六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

步骤 1:创建 Cyber Workspace

步骤 2:添加 AI 同事

步骤 3:为 AI 同事安装 Gene(技能包)

步骤 4:配置大模型(关键!)

步骤 5:派发第一个任务

七、写给 Windows 用户的特别提示

小结:从“试玩 Demo”到“真正做事”


先说结论:10 分钟搭起“人机共管”的赛博办公室

DeskClaw(NoDeskAI/nodeskclaw)是一个开源的“人机共管运营平台”:

人在上面定策略、派任务,AI 同事在后台不停干活,所有协作都在一个可视化的“Cyber Workspace”里完成——不是简单的聊天框,而是一块共享的业务看板。

这篇文章会带你用 Docker Compose 在单机上把完整平台跑起来,并演示一个真实场景:

“让 AI 同事帮你每天自动整理行业情报”。


一、整体部署与使用流程(先看全貌)

下面这张流程图,是从“准备服务器”到“AI 同事真正干活”的完整链路:

后面所有章节,都是围绕这张图展开的详细操作。


二、项目背景:DeskClaw 在解决什么问题?

官方对 DeskClaw 的定位很清晰:

“The open-source platform where humans and AI run businesses together — from strategy to execution.”

核心几个概念:

  • Cyber Workspace(赛博工作区)

人和 AI 共享的运营看板,六边形拓扑展示团队关系,共享“黑板”和任务委派,是业务实际发生的地方。

  • Gene System(基因系统)

可以理解为“AI 同事的技能包”,来自公共市场或企业私有库,可按需加载、组合、持续进化。

  • Elastic Scale(弹性扩缩容)

支持在 Kubernetes 或本地 Docker 一键部署/扩容 AI 运行实例,平台帮你搞定基础设施,你专注运营决策。

简单说:

你定“做什么”,AI 同事负责“怎么做”,DeskClaw 把两者捏合成一个真正的团队。


三、环境准备:Docker Desktop 是唯一核心

在 Windows 上运行 DeskClaw,最核心的工具就是 Docker Desktop。它会在你的 Windows 上通过 WSL2(Windows Subsystem for Linux)虚拟化出一个轻量级的 Linux 内核,用来跑容器。

步骤 1:安装 Docker Desktop

  1. 下载安装包 访问 Docker 官网下载页面:https://www.docker.com/products/docker-desktop/ 点击“Download for Windows”下载安装程序。

  1. 安装与配置 双击运行安装程序,确保勾选 “Use WSL 2 instead of Hyper-V”(推荐,性能更好)。 安装完成后,重启电脑。
  2. 启动与验证 重启后,启动“Docker Desktop”应用。首次启动可能需要几分钟初始化。 左下角状态栏显示 “Engine running” 绿色图标,即表示 Docker 引擎已就绪。

步骤 2:准备代码目录与项目文件

你可以选择两种方式获取代码:

方式一:Git Clone(推荐,方便后续更新)

  • 下载并安装 Git for Windows(如果尚未安装):https://git-scm.com/download/win
  • 在电脑上新建一个文件夹,例如 D:\DeskClaw
  • 在该文件夹内右键点击空白处,选择“Open Git Bash here”或“在终端中打开”
  • 输入以下命令克隆项目:
git clone https://github.com/NoDeskAI/nodeskclaw.git

方式二:直接下载 ZIP

完成后,请确保你的终端(PowerShell 或 CMD)当前目录位于 nodeskclaw 文件夹内。

四、一键启动:Docker Compose 部署

步骤 1:启动服务

打开 PowerShell(推荐)或 CMD,切换到项目目录:

cd nodeskclaw

执行一键启动命令:

docker compose up -d

这一步会自动拉取所需镜像(如 PostgreSQL、Backend、Portal 等)并启动容器。首次运行可能需要几分钟下载镜像。

步骤 2:获取初始账号密码

服务启动后,查看日志获取管理员账号:

docker compose logs nodeskclaw-backend --tail 100

在输出日志中找到类似以下内容:

======================================== Initial admin account Account: admin Password: <随机字符串> Please change your password after login ========================================

请务必记下这个密码。

步骤 3:浏览器访问平台

打开你喜欢的浏览器,访问:

http://localhost

如果 80 端口被占用,你可以修改 docker-compose.yml 文件,将 Portal 的端口映射改为其他端口,例如 8080:80,然后访问 http://localhost:8080

使用步骤 2 中获取的 admin 账号和密码登录,登录后系统会强制要求修改密码。

五、安装完成后的基本操作

恭喜你,你的“赛博办公室”已经在本地跑起来了。接下来的步骤是“装修办公室”和“招聘员工”:

  1. 创建 Cyber Workspace(工作区):这是你和 AI 团队共享的业务看板。

  1. 添加集群。

  1. 添加 AI 同事:相当于招聘员工。

  1. 配置 LLM(大模型):让 AI 拥有“大脑”。

我这里使用蓝耘MaaS模型/maas/jieyue/step-3.5-flash,登录之后跟随图片中的步骤一步一步获取api

然后一一添加进去

稍微等待一会儿,就会看到我们的第一个员工部署成功了

下面我们通过一个具体示例来串联这些步骤。


六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

假设你是一名市场分析师或创业者,每天早上需要:

  • 浏览若干行业媒体网站
  • 汇总“AI Agent / 大模型应用”相关的最新动态
  • 生成一份简报,包含:标题、摘要、来源链接、时间

传统做法是:开 N 个网站 -> 复制粘贴 -> 自己整理,非常耗时。

在 DeskClaw 里,我们可以创建一个“情报收集 AI 同事”,让它每天早上自动干活,你只需要在 Workspace 里看结果。

步骤 1:创建 Cyber Workspace

注:以下步骤为基于官方概念与界面设计的合理推断,具体按钮/菜单名称以实际界面为准。

  1. 登录 Portal 后,进入“工作区 / Cyber Workspace”模块。
  2. 点击“新建工作区”,例如:
    1. 名称:AI 行业情报站
    2. 说明:每天自动收集 AI 行业动态,生成简报

  1. 保存后,你会看到一个“空白”的 Workspace,其中有:
    1. 共享黑板(Blackboard)
    2. 任务看板
    3. AI 同事列表

步骤 2:添加 AI 同事

在 Workspace 中:

  1. 点击“添加 AI 同事 / New AI Partner”。
  2. 保存后,这个 AI 同事会出现在 Workspace 的拓扑图中,与你形成“协作关系”。

步骤 3:为 AI 同事安装 Gene(技能包)

Gene 是 AI 同事的“能力基因”,例如:

  • “网页抓取” Gene
  • “文本摘要” Gene
  • “JSON 结构化输出” Gene

在 Portal 的 Gene 市场(或基因库)中,你可以:

  1. 搜索类似 web-collectornews-summarizer 的 Gene。
  2. 选择一个适合新闻抓取与摘要的 Gene,点击“安装到工作区”。
  3. 在 AI 同事的设置中,将这个 Gene 绑定到该同事身上。

具体界面名称可能为“基因库 / GeneHub”或“技能市场”,但逻辑是一致的:从市场安装 Gene,再分配给 AI 同事。

步骤 4:配置大模型(关键!)

AI 同事需要大模型才能思考和总结。在“设置”->“模型配置”中:

  1. 选择你的模型服务商(如 蓝耘MaaS)。
  2. 填入你的 API Key。

  1. 保存配置。

步骤 5:派发第一个任务

  1. 在工作区的黑板或任务栏,点击“新建任务”。
  2. 填写任务描述:

“访问以下网站:https://blog.ZEEKLOG.net/rank/list,搜集与 AI 相关的最新文章,生成一份包含标题、摘要、链接的 Markdown 简报,并保存到黑板。”


七、写给 Windows 用户的特别提示

  1. 性能考量:虽然 DeskClaw 可以在本地流畅运行,但如果你的任务非常繁重(如同时运行多个 AI 同事处理大量数据),可能会占用较多内存和 CPU。建议电脑至少有 16GB 内存。
  2. 数据安全:所有数据都保存在本地 Docker 容器挂载的卷中。如果卸载 Docker Desktop 或删除容器,数据可能会丢失。务必定期备份重要数据。
  3. 网络代理:如果你的网络环境访问 Docker Hub 或 GitHub 较慢,可以在 Docker Desktop 的设置中配置代理加速。

小结:从“试玩 Demo”到“真正做事”

今天,我们只用了几分钟,就在 Windows 本地搭建起了一个真正的“人机协同工作平台”。这不是一个简单的 Demo,而是一个可以随着你的需求不断进化、迭代的操作系统。

你不需要成为技术大牛,也不需要昂贵的服务器,只需一台普通的 Windows 电脑,就能拥有一个永不疲倦、持续进化的 AI 团队。

下一步,试着把你的日常重复性工作,拆解成任务,交给你的 AI 同事吧。

Read more

基于FunASR语音识别WebUI快速部署|科哥二次开发镜像实战

基于FunASR语音识别WebUI快速部署|科哥二次开发镜像实战 1. 背景与技术选型 1.1 语音识别技术发展现状 近年来,随着深度学习在语音信号处理领域的深入应用,自动语音识别(ASR)技术取得了显著突破。特别是在中文场景下,基于端到端模型的语音识别系统已广泛应用于智能客服、会议转录、字幕生成等实际业务中。 FunASR 是由阿里云推出的一个开源语音识别工具包,支持多种主流模型架构,如 Paraformer、SenseVoice 等,具备高精度、低延迟和良好的可扩展性。其模块化设计使得开发者可以灵活集成 VAD(语音活动检测)、PUNC(标点恢复)、LM(语言模型)等功能组件。 1.2 科哥二次开发镜像的价值 本文所使用的镜像 “FunASR 语音识别基于speech_ngram_lm_zh-cn 二次开发构建by科哥” 是在官方 FunASR 基础上进行功能增强和界面优化的定制版本。该镜像主要特点包括: * 集成 speech_ngram_

不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案

不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案 在当前的大模型应用浪潮中,很多前端开发者切入AI领域的第一步往往是封装一个ChatGPT般的对话界面。起初,我们可能只是简单地将用户输入和AI回复Push到一个数组中,并在页面上渲染。然而,随着应用场景的深入,这种“玩具级”的架构很快就会面临严峻挑战。 背景:被忽视的“记忆”成本 很多前端同学在开发AI应用时,最容易踩的坑就是“只顾眼前交互,忽视持久化与上下文管理”。 痛点主要体现在三个方面: 1. 数据脆弱性:用户不小心刷新页面,长达几十轮的深度对话瞬间灰飞烟灭。这种体验在Web端是致命的,用户无法接受自己的“思考过程”因误操作而丢失。 2. 上下文窗口限制:大模型都有Token限制(如GPT-3.5的4k,GPT-4的8k/32k)。如果前端只是无脑累加历史记录发给后端,很快就会报错context_length_exceeded。前端必须具备“上下文回溯”与“裁剪”的能力。 3. 多会话管理:现代AI应用往往是多会话并行的(类似ChatGPT左侧列表)。如何高效索引、

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置) 如果你在本地运行大模型,比如用Ollama部署了Qwen、Llama或者DeepSeek,可能会发现一个尴尬的问题:模型的知识截止日期是固定的,它不知道今天股市涨跌,不清楚最新的科技新闻,甚至不知道明天是什么节日。这种“信息孤岛”的感觉,让本地大模型的实用性大打折扣。 我最初搭建OpenWebUI环境时,也遇到了这个痛点。看着模型一本正经地分析过时的数据,那种无力感让我开始寻找解决方案。市面上有不少联网搜索方案,但要么配置复杂,要么对国内网络环境不友好。经过几周的折腾和测试,我发现SearXNG这个开源元搜索引擎,配合OpenWebUI的联网搜索功能,是目前最稳定、最灵活的方案之一。 更重要的是,通过合理配置SearXNG,我们可以让本地大模型直接调用百度、360等国内搜索引擎,获取符合中文用户习惯的实时信息。这不仅仅是技术上的连接,更是让本地AI真正“接地气”的关键一步。下面我就把自己踩过的坑、验证过的配置,以及实际效果对比,毫无保留地分享给你。 1. 为什么需要SearXN

前端代码质量保证:让你的代码更可靠

前端代码质量保证:让你的代码更可靠 毒舌时刻 代码质量?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便写几个测试就能保证代码质量?别做梦了!到时候你会发现,测试代码比业务代码还多,维护起来比业务代码还麻烦。 你以为ESLint能解决所有问题?别天真了!ESLint只能检查代码风格,无法检查逻辑错误。还有那些所谓的代码质量工具,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 减少错误:代码质量保证可以帮助你发现和修复代码中的错误,减少生产环境中的问题。 2. 提高可维护性:高质量的代码更容易理解和维护,减少后期的维护成本。 3. 促进团队协作:统一的代码质量标准可以便于团队成员之间的协作,减少沟通成本。 4. 提高开发效率:高质量的代码可以减少调试和修复错误的时间,提高开发效率。 5. 提升代码安全性:代码质量保证可以帮助你发现和修复安全漏洞,提升代码的安全性。 反面教材 // 这是一个典型的代码质量问题示例 // 1. 代码风格不一致 function getUser(id) { return fetch(`/api/