别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

目录

先说结论:10 分钟搭起“人机共管”的赛博办公室

一、整体部署与使用流程(先看全貌)

二、项目背景:DeskClaw 在解决什么问题?

三、环境准备:Docker Desktop 是唯一核心

步骤 1:安装 Docker Desktop

步骤 2:准备代码目录与项目文件

四、一键启动:Docker Compose 部署

步骤 1:启动服务

步骤 2:获取初始账号密码

步骤 3:浏览器访问平台

五、安装完成后的基本操作

六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

步骤 1:创建 Cyber Workspace

步骤 2:添加 AI 同事

步骤 3:为 AI 同事安装 Gene(技能包)

步骤 4:配置大模型(关键!)

步骤 5:派发第一个任务

七、写给 Windows 用户的特别提示

小结:从“试玩 Demo”到“真正做事”


先说结论:10 分钟搭起“人机共管”的赛博办公室

DeskClaw(NoDeskAI/nodeskclaw)是一个开源的“人机共管运营平台”:

人在上面定策略、派任务,AI 同事在后台不停干活,所有协作都在一个可视化的“Cyber Workspace”里完成——不是简单的聊天框,而是一块共享的业务看板。

这篇文章会带你用 Docker Compose 在单机上把完整平台跑起来,并演示一个真实场景:

“让 AI 同事帮你每天自动整理行业情报”。


一、整体部署与使用流程(先看全貌)

下面这张流程图,是从“准备服务器”到“AI 同事真正干活”的完整链路:

后面所有章节,都是围绕这张图展开的详细操作。


二、项目背景:DeskClaw 在解决什么问题?

官方对 DeskClaw 的定位很清晰:

“The open-source platform where humans and AI run businesses together — from strategy to execution.”

核心几个概念:

  • Cyber Workspace(赛博工作区)

人和 AI 共享的运营看板,六边形拓扑展示团队关系,共享“黑板”和任务委派,是业务实际发生的地方。

  • Gene System(基因系统)

可以理解为“AI 同事的技能包”,来自公共市场或企业私有库,可按需加载、组合、持续进化。

  • Elastic Scale(弹性扩缩容)

支持在 Kubernetes 或本地 Docker 一键部署/扩容 AI 运行实例,平台帮你搞定基础设施,你专注运营决策。

简单说:

你定“做什么”,AI 同事负责“怎么做”,DeskClaw 把两者捏合成一个真正的团队。


三、环境准备:Docker Desktop 是唯一核心

在 Windows 上运行 DeskClaw,最核心的工具就是 Docker Desktop。它会在你的 Windows 上通过 WSL2(Windows Subsystem for Linux)虚拟化出一个轻量级的 Linux 内核,用来跑容器。

步骤 1:安装 Docker Desktop

  1. 下载安装包 访问 Docker 官网下载页面:https://www.docker.com/products/docker-desktop/ 点击“Download for Windows”下载安装程序。

  1. 安装与配置 双击运行安装程序,确保勾选 “Use WSL 2 instead of Hyper-V”(推荐,性能更好)。 安装完成后,重启电脑。
  2. 启动与验证 重启后,启动“Docker Desktop”应用。首次启动可能需要几分钟初始化。 左下角状态栏显示 “Engine running” 绿色图标,即表示 Docker 引擎已就绪。

步骤 2:准备代码目录与项目文件

你可以选择两种方式获取代码:

方式一:Git Clone(推荐,方便后续更新)

  • 下载并安装 Git for Windows(如果尚未安装):https://git-scm.com/download/win
  • 在电脑上新建一个文件夹,例如 D:\DeskClaw
  • 在该文件夹内右键点击空白处,选择“Open Git Bash here”或“在终端中打开”
  • 输入以下命令克隆项目:
git clone https://github.com/NoDeskAI/nodeskclaw.git

方式二:直接下载 ZIP

完成后,请确保你的终端(PowerShell 或 CMD)当前目录位于 nodeskclaw 文件夹内。

四、一键启动:Docker Compose 部署

步骤 1:启动服务

打开 PowerShell(推荐)或 CMD,切换到项目目录:

cd nodeskclaw

执行一键启动命令:

docker compose up -d

这一步会自动拉取所需镜像(如 PostgreSQL、Backend、Portal 等)并启动容器。首次运行可能需要几分钟下载镜像。

步骤 2:获取初始账号密码

服务启动后,查看日志获取管理员账号:

docker compose logs nodeskclaw-backend --tail 100

在输出日志中找到类似以下内容:

======================================== Initial admin account Account: admin Password: <随机字符串> Please change your password after login ========================================

请务必记下这个密码。

步骤 3:浏览器访问平台

打开你喜欢的浏览器,访问:

http://localhost

如果 80 端口被占用,你可以修改 docker-compose.yml 文件,将 Portal 的端口映射改为其他端口,例如 8080:80,然后访问 http://localhost:8080

使用步骤 2 中获取的 admin 账号和密码登录,登录后系统会强制要求修改密码。

五、安装完成后的基本操作

恭喜你,你的“赛博办公室”已经在本地跑起来了。接下来的步骤是“装修办公室”和“招聘员工”:

  1. 创建 Cyber Workspace(工作区):这是你和 AI 团队共享的业务看板。

  1. 添加集群。

  1. 添加 AI 同事:相当于招聘员工。

  1. 配置 LLM(大模型):让 AI 拥有“大脑”。

我这里使用蓝耘MaaS模型/maas/jieyue/step-3.5-flash,登录之后跟随图片中的步骤一步一步获取api

然后一一添加进去

稍微等待一会儿,就会看到我们的第一个员工部署成功了

下面我们通过一个具体示例来串联这些步骤。


六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

假设你是一名市场分析师或创业者,每天早上需要:

  • 浏览若干行业媒体网站
  • 汇总“AI Agent / 大模型应用”相关的最新动态
  • 生成一份简报,包含:标题、摘要、来源链接、时间

传统做法是:开 N 个网站 -> 复制粘贴 -> 自己整理,非常耗时。

在 DeskClaw 里,我们可以创建一个“情报收集 AI 同事”,让它每天早上自动干活,你只需要在 Workspace 里看结果。

步骤 1:创建 Cyber Workspace

注:以下步骤为基于官方概念与界面设计的合理推断,具体按钮/菜单名称以实际界面为准。

  1. 登录 Portal 后,进入“工作区 / Cyber Workspace”模块。
  2. 点击“新建工作区”,例如:
    1. 名称:AI 行业情报站
    2. 说明:每天自动收集 AI 行业动态,生成简报

  1. 保存后,你会看到一个“空白”的 Workspace,其中有:
    1. 共享黑板(Blackboard)
    2. 任务看板
    3. AI 同事列表

步骤 2:添加 AI 同事

在 Workspace 中:

  1. 点击“添加 AI 同事 / New AI Partner”。
  2. 保存后,这个 AI 同事会出现在 Workspace 的拓扑图中,与你形成“协作关系”。

步骤 3:为 AI 同事安装 Gene(技能包)

Gene 是 AI 同事的“能力基因”,例如:

  • “网页抓取” Gene
  • “文本摘要” Gene
  • “JSON 结构化输出” Gene

在 Portal 的 Gene 市场(或基因库)中,你可以:

  1. 搜索类似 web-collectornews-summarizer 的 Gene。
  2. 选择一个适合新闻抓取与摘要的 Gene,点击“安装到工作区”。
  3. 在 AI 同事的设置中,将这个 Gene 绑定到该同事身上。

具体界面名称可能为“基因库 / GeneHub”或“技能市场”,但逻辑是一致的:从市场安装 Gene,再分配给 AI 同事。

步骤 4:配置大模型(关键!)

AI 同事需要大模型才能思考和总结。在“设置”->“模型配置”中:

  1. 选择你的模型服务商(如 蓝耘MaaS)。
  2. 填入你的 API Key。

  1. 保存配置。

步骤 5:派发第一个任务

  1. 在工作区的黑板或任务栏,点击“新建任务”。
  2. 填写任务描述:

“访问以下网站:https://blog.ZEEKLOG.net/rank/list,搜集与 AI 相关的最新文章,生成一份包含标题、摘要、链接的 Markdown 简报,并保存到黑板。”


七、写给 Windows 用户的特别提示

  1. 性能考量:虽然 DeskClaw 可以在本地流畅运行,但如果你的任务非常繁重(如同时运行多个 AI 同事处理大量数据),可能会占用较多内存和 CPU。建议电脑至少有 16GB 内存。
  2. 数据安全:所有数据都保存在本地 Docker 容器挂载的卷中。如果卸载 Docker Desktop 或删除容器,数据可能会丢失。务必定期备份重要数据。
  3. 网络代理:如果你的网络环境访问 Docker Hub 或 GitHub 较慢,可以在 Docker Desktop 的设置中配置代理加速。

小结:从“试玩 Demo”到“真正做事”

今天,我们只用了几分钟,就在 Windows 本地搭建起了一个真正的“人机协同工作平台”。这不是一个简单的 Demo,而是一个可以随着你的需求不断进化、迭代的操作系统。

你不需要成为技术大牛,也不需要昂贵的服务器,只需一台普通的 Windows 电脑,就能拥有一个永不疲倦、持续进化的 AI 团队。

下一步,试着把你的日常重复性工作,拆解成任务,交给你的 AI 同事吧。

Read more

【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库

【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库

搭建本地知识库 * ✅ 一、整体架构设计(RAG + 向量检索 + 本地 LLM) * 🧰 二、推荐技术栈(2026 年最佳实践) * 🛠️ 三、具体搭建步骤(以 Chroma + Ollama + Llama 3.1 为例) * 步骤 1:安装基础环境 * 步骤 2:安装 Python 依赖 * 步骤 3:准备知识文档 * 步骤 4:构建向量知识库(Python 脚本) * 步骤 5:启动问答服务(RAG 推理) * 🔒 四、安全与性能优化建议 * 1. **隐私保护** * 2. **性能调优** * 3. **中文增强** * 🧪 五、

llama.cpp Docker部署:容器化推理服务搭建

llama.cpp Docker部署:容器化推理服务搭建 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 概述 llama.cpp是Facebook LLaMA模型的C/C++移植版本,提供了高效的本地推理能力。通过Docker容器化部署,可以快速搭建稳定、可移植的AI推理服务环境。本文将详细介绍如何使用Docker部署llama.cpp推理服务,涵盖基础部署、GPU加速、生产环境配置等场景。 环境准备 系统要求 * Docker Engine 20.10+ * NVIDIA Container Toolkit(如需GPU支持)

Whisper-large-v3语音识别模型实战:内网穿透技术应用

Whisper-large-v3语音识别模型实战:内网穿透技术应用 1. 为什么需要让语音识别服务“走出去” 你有没有遇到过这样的情况:在公司内网部署了一个效果出色的Whisper-large-v3语音识别服务,但销售同事在客户现场演示时却连不上;或者团队成员在家办公,想用刚搭建好的会议转录系统,却发现访问不了本地服务器。这些问题背后,其实都指向同一个技术需求——如何让内网的服务被外部网络安全、稳定地访问。 Whisper-large-v3作为当前多语言语音识别的标杆模型,支持99种语言,识别准确率高,特别适合会议记录、视频字幕生成、客服语音分析等场景。但它通常部署在本地服务器或私有云环境中,天然处于网络隔离状态。这时候,“内网穿透”就不是什么高深莫测的技术黑话,而是一个实实在在的工程刚需:它解决的是“好东西怎么让需要的人用上”的问题。 我们不谈复杂的网络原理,只说实际效果——通过合理的内网穿透方案,你可以让部署在办公室台式机上的Whisper服务,被千里之外的合作伙伴通过浏览器直接调用;也可以让部署在实验室GPU服务器上的语音转写API,成为移动App后台稳定的语音处理引擎

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

项目简介 今天偶然发现了个堪称“赛博活佛”的AI网站,名叫Vheer。它的作风相当大方,里面绝大部分功能都直接免费敞开用,就问你服不服。 文生图、图生视频、智能修图这些主流AI功能一个不落。点开就能用。而且非常的大气,比如抠图,别的网站按张收费,它直接让你一口气传20张照片自动处理,完全免费,甚至你去花时间不需要注册。 它几乎移除了所有上手障碍。网站首页清晰地排列着各种功能,没有晦涩的术语。你想把文字变成图片,或者让静态照片动起来,点开对应的按钮,输入你的想法,结果很快就能呈现在你面前。整个过程简单得就像在用一款普通的手机APP。 食用指南 访问地址 传送地址 官网的免费会员上面写的几个非常吸引人的地方,第一没有任何水印,第二生成图片视频这些是没有任何数量上的限制,只有高级别的模型和高速通道不能使用(但是实测下来,生成的速度也是相当不错)。 网站也提供了一些订阅模式,可以使用更高级的模型,但是这些高级模型需要消耗算力点。根据自己的需要看是否订阅。 由于功能实在太多了,强烈建议亲手测试一下 操作与体验——文生图 官网光一个文生图的功能就折腾出来了40多个功能,除了