OpenClaw:让AI直接操控你的电脑

有安全风险;可接入本地大模型

1. OpenClaw 到底是什么?

你可以把它理解成:一个能直接控制你电脑的 AI 助手。

普通 AI(ChatGPT、豆包、文心一言):

  • 只能跟你聊天
  • 只能告诉你怎么做
  • 不能碰你电脑里的任何东西

OpenClaw:

  • 能动手操作你电脑的 AI
  • 能自己点开文件、写代码、运行程序、点鼠标、改设置
  • 就像雇了一个会用电脑的人,坐在你电脑前帮你干活

一句话:普通 AI 是 “嘴强王者”,OpenClaw 是 “真能干活”。


2. 它能帮你做什么?(超直白举例)

你直接用自然说话,它就能自己干:

✅ 写代码 / 改项目

  • 你说:“帮我写一个登录页面”
  • 自己新建文件、写代码、保存、运行
  • 你不用动手敲一行

✅ 操作电脑文件

  • 你说:“把桌面的图片按日期分类”
  • 自己打开文件夹、移动、重命名、整理

✅ 自动化干活

  • 你说:“帮我批量压缩图片”
  • 自己下载工具、安装、批量处理

✅ 帮你部署软件 / 搭环境

  • 你说:“帮我装个 Python 环境”
  • 自己下载、配置、装好

✅ 甚至能模拟鼠标键盘

  • 打开浏览器
  • 点按钮
  • 填表单
  • 查资料

3. 它的核心特点(一句话总结)

OpenClaw = 能直接操控你 Windows / Linux 电脑的 AI 机器人。

  • 不用你手动点来点去
  • 不用你复制粘贴命令
  • 说任务,它自己干

4. 适合谁用?

  • 想让 AI 真・帮你干活,而不是只聊天
  • 程序员 / 搞开发 / 搭环境
  • 喜欢折腾本地 AI、自动化工具的人

最简单的 Windows 本地运行教程。一、先搞懂:OpenClaw 要啥?

只需要 2 个东西:Node.js 22 以上(运行环境)一个 AI 的 API Key(比如 DeepSeek、OpenAI、Claude)二、1 分钟安装 Node.js打开官网:https://nodejs.org/下载 LTS 版本(推荐 22+)一路下一步安装,不用改任何设置

安装完,打开 命令提示符(CMD)PowerShell,输入:

显示 v22.x.x 就成功了。三、安装 OpenClaw(复制粘贴就行)

以管理员身份打开 PowerShell,复制这一行直接运行:

它会自动安装,你等着就行。四、启动 OpenClaw

安装完,直接输入:

然后它会让你:选 AI 服务商(随便选一个你有 Key 的)粘贴你的 API Key问你要不要开机自启,选 n 就行

完成后,浏览器会自动打开:👉 http://localhost:18789五、现在你就能用了!

直接说话,比如:“帮我看看 C 盘还剩多少空间”“帮我列一下桌面文件”“帮我写一个简单网页并运行”“帮我批量重命名文件”

它会真的在你电脑上操作,不是瞎聊。六、最常见坑我提前帮你避了打不开网页:重启一下 openclaw 命令没反应:检查 API Key 对不对权限不够:用管理员打开 PowerShell

现在直接跟着走,5 分钟内一定能跑起来

Windows 本地运行 OpenClaw 有两种推荐方式:原生一键安装(新手首选)WSL2 容器运行(稳定兼容)。官方要求 Node ≥ 22,两种方式均需满足。


方式一:原生一键安装(PowerShell)

    • 选择模型提供商(如 OpenAI、DeepSeek、Claude)
    • 输入 API Key(前往对应平台控制台获取)
    • 选择是否安装 Skills 与聊天软件接入若跳过引导,手动执行:
  1. 启动与访问初始化完成后,服务自动后台运行。打开浏览器访问:http://localhost:18789(默认端口)

初始化与配置脚本自动启动引导,按提示完成:

openclaw onboard --install-daemon ```{insert\_element\_2\_} 

一键安装 OpenClaw管理员身份打开 PowerShell,执行官方脚本:

iwr -useb https://openclaw.ai/install.ps1 | iex ```{insert\_element\_1\_} 

准备环境安装 Node.js 22+(官网 https://nodejs.org/ 下载 LTS 版),验证:

node -v # 需显示 v22.x.x 

方式二:WSL2 运行(兼容最佳)

适合原生依赖异常时,按以下步骤启用 WSL2 并部署:

  1. 安装 Ubuntu打开 Microsoft Store,搜索安装 Ubuntu 22.04 LTS24.04 LTS,首次启动设置用户名与密码。
  2. 访问服务WSL2 内服务启动后,在 Windows 浏览器访问:http://localhost:18789

安装并初始化 OpenClaw

curl -fsSL https://openclaw.ai/install.sh | bash openclaw onboard --install-daemon ```{insert\_element\_3\_} 

安装 Node.js 22

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - sudo apt install -y nodejs node -v # 验证 v22.x.x 

更新系统并安装依赖在 Ubuntu 终端执行:

sudo apt update && sudo apt upgrade -y sudo apt install -y curl git build-essential 

启用 WSL2(管理员 PowerShell)

dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart wsl --set-default-version 2 

执行后重启电脑


关键配置与测试

  • 模型切换:在 UI 中进入「设置」→「模型」,更换提供商并更新 API Key。
  • 本地模型:需部署本地推理服务(如 Ollama),在引导中选择「本地模型」并填入服务地址(如 http://localhost:11434)。

测试命令

openclaw run "列出当前目录文件" # 验证 Skills 工作 

常见问题排查

WSL2 网络异常:重置 WSL 网络:

wsl --shutdown netsh winsock reset netsh int ip reset 

依赖安装失败:使用 pnpm 重新安装:

npm install -g pnpm pnpm add -g openclaw@latest 

端口冲突:修改启动端口:

openclaw gateway --port 18790 --verbose 

停止与重启服务

  • 停止openclaw daemon stop
  • 重启openclaw daemon start
  • 查看状态openclaw daemon status
在 GitHub 上精选了 4 个可本地部署的 OpenClaw 平替方案,覆盖轻量、安全、极简等不同诉求,直接复制 GitHub 地址即可上手。🛠️ 核心替代方案(GitHub 直达)NanoBot(超轻量王者)地址hkuds/nanobot亮点:主打极简架构,安装轻便,资源占用低。适合对系统开销敏感、追求快速部署的用户,是社区公认最稳妥的轻量级替代。ZeroClaw(Rust 高性能安全版)地址zero-claw/zeroclaw(参考掘金 / ZEEKLOG 收录)亮点:全 Rust 编写,单二进制部署,内存仅约 7.8MB,启动极快。内置严格沙箱与白名单,安全性优于同类,支持 ARM/x86 全架构,树莓派等低配硬件也能流畅运行。IronClaw(隐私安全优先)地址nearai/ironclaw亮点:继承 OpenClaw 生态但重写内核,专注隐私与安全。采用 WASM + Docker 双沙箱隔离,严格控制数据流向,适合对数据泄露零容忍的企业或个人。Kai(Claude 深度集成)地址dcellison/kai亮点开发者友好,专为 Claude 代码工具链设计。聚焦工作区管理与浏览器自动化,界面简洁,适合重度依赖 Claude 进行代码编写与 Git 协作的场景。📦 生态关联轻量分支NanoClawgavrielc/nanoclawOpenClaw 生态内的极简分支,约 500 行 TypeScript 代码,保留核心逻辑但移除冗余,极易阅读与定制,适合开发者二次改造。📝 快速选型建议追求轻量稳定 👉 选 NanoBot重视性能与硬件适配 👉 选 ZeroClaw强调隐私与安全 👉 选 IronClaw深度使用 Claude 开发者工具 👉 选 Kai

Read more

VSCode GitHub Copilot 安装与使用完全指南

VSCode GitHub Copilot 安装与使用完全指南

文章目录 * 一、安装准备 * 1.1 系统要求 * 1.2 Copilot订阅选择 * 1.3 获取访问权限 * 二、安装步骤 * 2.1 安装GitHub Copilot基础扩展 * 2.2 安装GitHub Copilot Chat扩展 * 2.3 登录和授权 * 三、基本使用:代码自动完成 * 3.1 内联代码建议 * 3.2 自定义Copilot配置 * 3.3 使用注释引导Copilot * 四、使用Copilot Chat * 4.1 启动聊天会话 * 4.2 常见Chat命令和技巧 * 4.3 聊天模式

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目 执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖 首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖) 执行pnpm build构建主程序 执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化 按键盘右箭头选择Yes,同样Yes 任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,

Being-H0.5:扩展以人为中心的机器人学习实现跨具身泛化

Being-H0.5:扩展以人为中心的机器人学习实现跨具身泛化

26年1月来自的BeingBeyond团队的论文“Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization”。 Being-H0.5 是一个基础视觉-语言-动作 (VLA) 模型,旨在实现跨不同机器人平台的鲁棒跨具身泛化。现有的 VLA 模型通常难以应对形态异质性和数据稀缺性,而提出的一种以人为中心学习范式,将人类交互痕迹视为物理交互的通用“母语”。为了支持这一范式,推出 UniHand-2.0,这是迄今为止规模最大的具身预训练方案,包含来自 30 种不同机器人具身的超过 35,000 小时多模态数据。该方法引入一个统一动作空间,将异构的机器人控制映射到语义对齐槽中,使低资源机器人能够从人类数据和高资源平台中引导技能。基于这一以人为中心的基础,设计一个统一的序列建模和多任务预训练范式,以连接人类演示和机器人执行。在架构上,Being-H0.5 采用混合 Transformer (MoT)设计,并引入一种混合流 (MoF) 框架,将共享的运动基元与特定于具身的专家解耦。

【 Intel/Altera FPGA技术实战 】Stratix 10 SOC GHRD工程自定义设计启动(四)

Stratix 10 SoC GHRD工程自定义设计启动步骤 硬件设计配置 确保Quartus Prime Pro已安装并支持Stratix 10器件。创建新工程时选择正确的器件型号(如1SG280HU2F53E2VGS1)。在Platform Designer中配置HPS组件,包括时钟、复位、DDR控制器和外设接口参数。生成QSYS系统后,将HDL文件集成到顶层设计中。 软件环境准备 安装Intel SoC FPGA Embedded Development Suite(EDS)工具链。通过EDS命令行生成预加载器(Preloader)和U-Boot镜像。配置HPS启动流程,确保BootROM能正确识别QSPI Flash或SD卡中的启动文件。修改设备树(DTS)以匹配硬件外设配置。 编译与下载流程 在Quartus中完成综合与布局布线,生成SOF文件。使用Convert Programming Files工具将SOF转换为Flash格式的POF文件。通过JTAG或AS编程器烧录到配置Flash中。对于HPS部分,将预加载器、U-Boot和Linux镜像打包成单一镜像写入