别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

目录

先说结论:10 分钟搭起“人机共管”的赛博办公室

一、整体部署与使用流程(先看全貌)

二、项目背景:DeskClaw 在解决什么问题?

三、环境准备:Docker Desktop 是唯一核心

步骤 1:安装 Docker Desktop

步骤 2:准备代码目录与项目文件

四、一键启动:Docker Compose 部署

步骤 1:启动服务

步骤 2:获取初始账号密码

步骤 3:浏览器访问平台

五、安装完成后的基本操作

六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

步骤 1:创建 Cyber Workspace

步骤 2:添加 AI 同事

步骤 3:为 AI 同事安装 Gene(技能包)

步骤 4:配置大模型(关键!)

步骤 5:派发第一个任务

七、写给 Windows 用户的特别提示

小结:从“试玩 Demo”到“真正做事”


先说结论:10 分钟搭起“人机共管”的赛博办公室

DeskClaw(NoDeskAI/nodeskclaw)是一个开源的“人机共管运营平台”:

人在上面定策略、派任务,AI 同事在后台不停干活,所有协作都在一个可视化的“Cyber Workspace”里完成——不是简单的聊天框,而是一块共享的业务看板。

这篇文章会带你用 Docker Compose 在单机上把完整平台跑起来,并演示一个真实场景:

“让 AI 同事帮你每天自动整理行业情报”。


一、整体部署与使用流程(先看全貌)

下面这张流程图,是从“准备服务器”到“AI 同事真正干活”的完整链路:

后面所有章节,都是围绕这张图展开的详细操作。


二、项目背景:DeskClaw 在解决什么问题?

官方对 DeskClaw 的定位很清晰:

“The open-source platform where humans and AI run businesses together — from strategy to execution.”

核心几个概念:

  • Cyber Workspace(赛博工作区)

人和 AI 共享的运营看板,六边形拓扑展示团队关系,共享“黑板”和任务委派,是业务实际发生的地方。

  • Gene System(基因系统)

可以理解为“AI 同事的技能包”,来自公共市场或企业私有库,可按需加载、组合、持续进化。

  • Elastic Scale(弹性扩缩容)

支持在 Kubernetes 或本地 Docker 一键部署/扩容 AI 运行实例,平台帮你搞定基础设施,你专注运营决策。

简单说:

你定“做什么”,AI 同事负责“怎么做”,DeskClaw 把两者捏合成一个真正的团队。


三、环境准备:Docker Desktop 是唯一核心

在 Windows 上运行 DeskClaw,最核心的工具就是 Docker Desktop。它会在你的 Windows 上通过 WSL2(Windows Subsystem for Linux)虚拟化出一个轻量级的 Linux 内核,用来跑容器。

步骤 1:安装 Docker Desktop

  1. 下载安装包 访问 Docker 官网下载页面:https://www.docker.com/products/docker-desktop/ 点击“Download for Windows”下载安装程序。

  1. 安装与配置 双击运行安装程序,确保勾选 “Use WSL 2 instead of Hyper-V”(推荐,性能更好)。 安装完成后,重启电脑。
  2. 启动与验证 重启后,启动“Docker Desktop”应用。首次启动可能需要几分钟初始化。 左下角状态栏显示 “Engine running” 绿色图标,即表示 Docker 引擎已就绪。

步骤 2:准备代码目录与项目文件

你可以选择两种方式获取代码:

方式一:Git Clone(推荐,方便后续更新)

  • 下载并安装 Git for Windows(如果尚未安装):https://git-scm.com/download/win
  • 在电脑上新建一个文件夹,例如 D:\DeskClaw
  • 在该文件夹内右键点击空白处,选择“Open Git Bash here”或“在终端中打开”
  • 输入以下命令克隆项目:
git clone https://github.com/NoDeskAI/nodeskclaw.git

方式二:直接下载 ZIP

完成后,请确保你的终端(PowerShell 或 CMD)当前目录位于 nodeskclaw 文件夹内。

四、一键启动:Docker Compose 部署

步骤 1:启动服务

打开 PowerShell(推荐)或 CMD,切换到项目目录:

cd nodeskclaw

执行一键启动命令:

docker compose up -d

这一步会自动拉取所需镜像(如 PostgreSQL、Backend、Portal 等)并启动容器。首次运行可能需要几分钟下载镜像。

步骤 2:获取初始账号密码

服务启动后,查看日志获取管理员账号:

docker compose logs nodeskclaw-backend --tail 100

在输出日志中找到类似以下内容:

======================================== Initial admin account Account: admin Password: <随机字符串> Please change your password after login ========================================

请务必记下这个密码。

步骤 3:浏览器访问平台

打开你喜欢的浏览器,访问:

http://localhost

如果 80 端口被占用,你可以修改 docker-compose.yml 文件,将 Portal 的端口映射改为其他端口,例如 8080:80,然后访问 http://localhost:8080

使用步骤 2 中获取的 admin 账号和密码登录,登录后系统会强制要求修改密码。

五、安装完成后的基本操作

恭喜你,你的“赛博办公室”已经在本地跑起来了。接下来的步骤是“装修办公室”和“招聘员工”:

  1. 创建 Cyber Workspace(工作区):这是你和 AI 团队共享的业务看板。

  1. 添加集群。

  1. 添加 AI 同事:相当于招聘员工。

  1. 配置 LLM(大模型):让 AI 拥有“大脑”。

我这里使用蓝耘MaaS模型/maas/jieyue/step-3.5-flash,登录之后跟随图片中的步骤一步一步获取api

然后一一添加进去

稍微等待一会儿,就会看到我们的第一个员工部署成功了

下面我们通过一个具体示例来串联这些步骤。


六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

假设你是一名市场分析师或创业者,每天早上需要:

  • 浏览若干行业媒体网站
  • 汇总“AI Agent / 大模型应用”相关的最新动态
  • 生成一份简报,包含:标题、摘要、来源链接、时间

传统做法是:开 N 个网站 -> 复制粘贴 -> 自己整理,非常耗时。

在 DeskClaw 里,我们可以创建一个“情报收集 AI 同事”,让它每天早上自动干活,你只需要在 Workspace 里看结果。

步骤 1:创建 Cyber Workspace

注:以下步骤为基于官方概念与界面设计的合理推断,具体按钮/菜单名称以实际界面为准。

  1. 登录 Portal 后,进入“工作区 / Cyber Workspace”模块。
  2. 点击“新建工作区”,例如:
    1. 名称:AI 行业情报站
    2. 说明:每天自动收集 AI 行业动态,生成简报

  1. 保存后,你会看到一个“空白”的 Workspace,其中有:
    1. 共享黑板(Blackboard)
    2. 任务看板
    3. AI 同事列表

步骤 2:添加 AI 同事

在 Workspace 中:

  1. 点击“添加 AI 同事 / New AI Partner”。
  2. 保存后,这个 AI 同事会出现在 Workspace 的拓扑图中,与你形成“协作关系”。

步骤 3:为 AI 同事安装 Gene(技能包)

Gene 是 AI 同事的“能力基因”,例如:

  • “网页抓取” Gene
  • “文本摘要” Gene
  • “JSON 结构化输出” Gene

在 Portal 的 Gene 市场(或基因库)中,你可以:

  1. 搜索类似 web-collectornews-summarizer 的 Gene。
  2. 选择一个适合新闻抓取与摘要的 Gene,点击“安装到工作区”。
  3. 在 AI 同事的设置中,将这个 Gene 绑定到该同事身上。

具体界面名称可能为“基因库 / GeneHub”或“技能市场”,但逻辑是一致的:从市场安装 Gene,再分配给 AI 同事。

步骤 4:配置大模型(关键!)

AI 同事需要大模型才能思考和总结。在“设置”->“模型配置”中:

  1. 选择你的模型服务商(如 蓝耘MaaS)。
  2. 填入你的 API Key。

  1. 保存配置。

步骤 5:派发第一个任务

  1. 在工作区的黑板或任务栏,点击“新建任务”。
  2. 填写任务描述:

“访问以下网站:https://blog.ZEEKLOG.net/rank/list,搜集与 AI 相关的最新文章,生成一份包含标题、摘要、链接的 Markdown 简报,并保存到黑板。”


七、写给 Windows 用户的特别提示

  1. 性能考量:虽然 DeskClaw 可以在本地流畅运行,但如果你的任务非常繁重(如同时运行多个 AI 同事处理大量数据),可能会占用较多内存和 CPU。建议电脑至少有 16GB 内存。
  2. 数据安全:所有数据都保存在本地 Docker 容器挂载的卷中。如果卸载 Docker Desktop 或删除容器,数据可能会丢失。务必定期备份重要数据。
  3. 网络代理:如果你的网络环境访问 Docker Hub 或 GitHub 较慢,可以在 Docker Desktop 的设置中配置代理加速。

小结:从“试玩 Demo”到“真正做事”

今天,我们只用了几分钟,就在 Windows 本地搭建起了一个真正的“人机协同工作平台”。这不是一个简单的 Demo,而是一个可以随着你的需求不断进化、迭代的操作系统。

你不需要成为技术大牛,也不需要昂贵的服务器,只需一台普通的 Windows 电脑,就能拥有一个永不疲倦、持续进化的 AI 团队。

下一步,试着把你的日常重复性工作,拆解成任务,交给你的 AI 同事吧。

Read more

AI Agent 开发门槛:零基础也能学吗

AI Agent 开发门槛:零基础也能学吗

AI Agent 开发门槛:零基础也能学吗 📝 本章学习目标:本章是入门认知部分,帮助零基础读者建立对AI Agent的初步认知。通过本章学习,你将全面掌握"AI Agent 开发门槛:零基础也能学吗"这一核心主题。 一、引言:为什么这个话题如此重要 在AI Agent快速发展的今天,AI Agent 开发门槛:零基础也能学吗已经成为每个开发者和研究者必须了解的核心知识。无论你是技术背景还是非技术背景,理解这一概念都将帮助你更好地把握AI时代的机遇。 1.1 背景与意义 💡 核心认知:AI Agent正在从"对话工具"进化为"执行引擎",能够主动完成任务、调用工具、与外部世界交互。这一变革正在深刻改变我们的工作和生活方式。 从2023年AutoGPT的横空出世,到如今百花齐放的Agent生态,短短一年多时间,执行式AI已经从概念走向落地。根据最新统计,

实战分享:用Llama Factory微调自动驾驶辅助模型的完整流程

实战分享:用Llama Factory微调自动驾驶辅助模型的完整流程 在自动驾驶领域,大语言模型(LLM)正逐渐成为辅助决策的重要工具。本文将详细介绍如何使用Llama Factory框架对Qwen2.5-VL-7B-Instruct模型进行微调,使其更适应自动驾驶场景的需求。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 为什么选择Llama Factory进行微调 Llama Factory是一个开源的LLM微调框架,它提供了从数据准备到模型训练、评估的一站式解决方案。对于自动驾驶初创团队来说,它具有以下优势: * 支持多种模型架构:包括Qwen、LLaMA等主流开源模型 * 简化微调流程:内置常见训练策略和评估指标 * 资源效率高:支持参数高效微调方法(PEFT) * 易于扩展:可以快速部署到云端GPU环境进行并行实验 环境准备与数据配置 1. 基础环境搭建 首先需要准备一个支持CUDA的GPU环境。以下是推荐的最低配置: * GPU: NVIDIA A10G或更高(24GB显存以上) * 内存:

AI绘画小白必看:Stable Diffusion云端版,2块钱出第一张图

AI绘画小白必看:Stable Diffusion云端版,2块钱出第一张图 你是不是也和我一样,是个插画师,脑子里有无数创意等着画出来?但每次看到AI生成艺术火出圈,心里痒痒的,想试试又打退堂鼓——听说要装一堆软件、配环境、还得有高端显卡,朋友还说“至少得RTX 3060起步”,可自己手上只有一台轻薄办公本,连独立显卡都没有。 别急,今天我要告诉你一个零门槛、低成本、真能用的方案:用云端Stable Diffusion,花不到2块钱,就能生成你的第一张AI画作。不需要懂代码,不用折腾本地环境,哪怕你用的是公司发的集成显卡笔记本,也能轻松上手。 这篇文章就是为你这样的AI绘画新手量身打造的。我会带你一步步操作,从注册到出图,全程图文指引,连参数怎么填都写得明明白白。你会发现,原来AI辅助创作没那么难,它不是大神专属,而是每个创作者都能拥有的“智能画笔”。 更重要的是,我们用的是ZEEKLOG星图平台提供的预置Stable Diffusion镜像,一键部署,自动配置好所有依赖环境(包括PyTorch、CUDA、WebUI等),省去你手动安装的99%麻烦。

IQuest-Coder-V1 vs Meta-Llama-Code:开源模型部署全面对比

IQuest-Coder-V1 vs Meta-Llama-Code:开源模型部署全面对比 1. 为什么这次对比值得你花5分钟读完 你是不是也遇到过这些情况: * 想在本地跑一个真正能写代码的开源模型,结果发现部署卡在环境配置上,折腾半天连第一个hello world都没跑通; * 看到榜单上分数很高的模型,一试才发现——生成的代码要么缺依赖、要么逻辑错位、要么根本跑不起来; * 在Llama-Code和新出的IQuest之间反复横跳,却找不到一份从“下载镜像”到“实际写功能”的真实对比。 这篇不是参数罗列,也不是论文复述。我们用同一台32GB显存的服务器(A100),从零开始部署两个模型,全程记录: 哪个模型真正支持128K上下文(不是靠插件硬凑) 哪个模型在写Python工具脚本时,一次就生成可运行代码 哪个模型在处理多文件项目结构时,能准确引用模块路径 哪个模型在终端里输入几行提示词,就能直接补全带类型注解的函数 所有操作命令、配置文件、实测截图、失败日志都已验证。你照着做,15分钟内就能跑通任一模型。 2. 先看清它们到底是谁 2.1 IQuest-Co