OpenClaw开源汉化发行版:介绍、下载、安装、配置教程

OpenClaw开源汉化发行版:介绍、下载、安装、配置教程

🎬 背景

🦞 想要一个 100% 私有化、全中文界面的 AI 助手? OpenClaw 汉化版让你零门槛拥有!

这是 GitHub 100,000+ Stars 明星项目的开源中文发行版——不仅做了深度界面汉化(CLI + Dashboard 全中文),更实现了每小时自动同步官方更新,汉化版延迟 < 1 小时,让你既享受中文体验,又不掉队最新功能。

通过 WhatsApp、Telegram、Discord 就能指挥你的 AI 处理邮件、日历、文件,数据完全本地掌控,告别隐私焦虑。无论你是 Docker 老手还是命令行小白,3 步即可上手,本教程覆盖安装、配置、升级、排障全流程。

🔗 开源forks地址MaoTouHU/OpenClawChinese(持续更新,建议 Star 收藏)

OpenClaw开源汉化发行版:介绍、下载、安装、配置教程

文章目录

什么是 OpenClaw?

OpenClaw 是 GitHub 100,000+ Stars 的开源个人 AI 助手平台。它运行在你的电脑上,通过 WhatsApp、Telegram、Discord 等聊天应用与你的 AI 助手交互,帮你处理邮件、日历、文件等日常事务。

本项目 = OpenClaw + 全中文界面,CLI 命令行和 Dashboard 网页控制台均已深度汉化。

每小时自动同步OpenClaw 官方更新,汉化版延迟 < 1 小时!
forks项目仓库 :https://github.com/MaoTouHU/OpenClawChinese

3 步上手

前提条件:需要 Node.js >= 22下载 Node.js

检查版本:node -v

第 1 步:安装

npminstall -g @qingchencloud/openclaw-zh@latest 

第 2 步:初始化

openclaw onboard 

初始化向导会引导你完成:选择 AI 模型 → 配置 API 密钥 → 设置聊天通道

第 3 步:打开控制台

openclaw dashboard 

浏览器会自动打开全中文的 Dashboard 控制台。完成!

想了解每一步的详细说明?查看 详细安装指南(包含 Node.js 安装、模型配置、守护进程、内网访问等)

汉化效果预览

概览仪表板


概览仪表板 - 网关状态、实例监控、快捷操作一目了然

更多截图

对话界面


对话界面 - 与 AI 助手实时交互

渠道管理


渠道管理 - WhatsApp、Telegram、Discord 等全平台支持

配置中心


配置中心 - 完整汉化

节点配置


节点配置 - 执行审批、安全策略管理

技能插件


技能插件 - 1Password、Apple Notes 等丰富扩展


常用命令

openclaw # 启动 OpenClaw openclaw onboard # 初始化向导 openclaw dashboard # 打开网页控制台 openclaw config # 查看/修改配置 openclaw skills # 管理技能 openclaw --help # 查看帮助

更新升级

npm update -g @qingchencloud/openclaw-zh 
查看当前版本:openclaw --version
版本安装命令说明
稳定版npm install -g @qingchencloud/openclaw-zh@latest经过测试,推荐使用
最新版npm install -g @qingchencloud/openclaw-zh@nightly每小时同步上游,体验新功能

其他安装方式

完整的手动安装教程(含 Node.js 安装、各系统配置、守护进程管理)请查看 详细安装指南

一键安装脚本

Linux / macOS:

curl -fsSL -o install.sh https://cdn.jsdelivr.net/gh/1186258278/OpenClawChineseTranslation@main/install.sh &&bash install.sh 

Windows PowerShell:

[Console]::OutputEncoding = [System.Text.Encoding]::UTF8 Invoke-WebRequest-Uri "https://cdn.jsdelivr.net/gh/1186258278/OpenClawChineseTranslation@main/install.ps1"-OutFile "install.ps1"-Encoding UTF8; powershell -ExecutionPolicy Bypass -File ".\install.ps1"
如遇中文乱码,直接用 npm 安装:npm install -g @qingchencloud/openclaw-zh@latest

Docker 部署

快速启动:

# 初始化配置docker run --rm -v openclaw-data:/root/.openclaw \ ghcr.io/1186258278/openclaw-zh:latest openclaw setup docker run --rm -v openclaw-data:/root/.openclaw \ ghcr.io/1186258278/openclaw-zh:latest openclaw config set gateway.mode local# 启动容器docker run -d --name openclaw -p 18789:18789 \ -v openclaw-data:/root/.openclaw \ ghcr.io/1186258278/openclaw-zh:latest openclaw gateway run 

访问:http://localhost:18789

完整 Docker 指南(远程部署、Nginx 反代、Docker Compose 等)请查看 Docker 部署指南

pnpm / yarn 安装

# pnpmpnpmadd -g @qingchencloud/openclaw-zh@latest # yarnyarn global add @qingchencloud/openclaw-zh@latest 

常见问题

问题快速解决详细说明
安装卡住 / 下载慢加镜像源:npm install -g @qingchencloud/openclaw-zh@latest --registry=https://registry.npmmirror.com查看
安装后还是英文先卸载原版:npm uninstall -g openclaw && npm install -g @qingchencloud/openclaw-zh@latest查看
token mismatch运行 openclaw dashboard 自动打开带 Token 的 URL查看
pairing requiredopenclaw devices list 然后 openclaw devices approve <ID>查看
远程 / 内网访问不了openclaw config set gateway.bind lan + 设置 Token + 重启查看
Missing config运行 openclaw onboard 初始化查看
Missing workspace template2026.2.4-zh.1 及更早版本的已知 Bug,升级即可修复:npm install -g @qingchencloud/openclaw-zh@latest查看
Ollama 无响应检查 baseURL 配置是否为 http://localhost:11434/v1查看

插件扩展

# 安装更新检测插件npminstall -g @qingchencloud/openclaw-updater 

🏁 总结

🎉 恭喜! 你现在拥有了一个完全中文化的私有化 AI 助手。

从 3 步快速上手到汉化界面体验,从常用命令到插件扩展——OpenClaw 汉化版让「个人 AI 助理」真正触手可及。数据本地存储、多平台即时交互、自动化任务处理,这些曾经复杂的功能,现在开源免费中文友好
forks项目仓库 :https://github.com/MaoTouHU/OpenClawChinese
现在,向你的 AI 助手发出第一条中文指令吧! 🚀

Read more

【硬核测评】Gemini 3 编程能力全面进化:不仅仅是 Copilot,更是你的 AI 架构师

【硬核测评】Gemini 3 编程能力全面进化:不仅仅是 Copilot,更是你的 AI 架构师

🚀 前言:AI 编程进入“深水区” 在 GPT-4o 和 Claude 3.5 称霸编程助手市场的很长一段时间里,开发者们习惯了“复制粘贴代码片段”的交互模式。然而,随着 Google DeepMind 正式推出 Gemini 3,我们看到了 AI 编程的另一种可能性:从“代码补全”进化到“仓库级理解”。 作为一名重度依赖 AI 的开发者,我深度体验了 Gemini 3 在实际项目中的表现。今天这篇文章,不讲虚的跑分,只聊它在写代码这件事上,到底强在哪? 🌟 核心优势一:降维打击的“无限”上下文 (Context Window) 如果说其他模型是“金鱼记忆”(只能记住当前打开的文件),那么 Gemini

By Ne0inhk
Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践 背景 Amazon SageMaker 汇集广泛采用的亚马逊云科技机器学习和分析功能,统一访问所有数据,为分析和人工智能提供一体式体验,使用亚马逊云科技机工具进行模型开发、生成式人工智能、数据处理和 SQL 分析,在融通式合作开发工作室中加快协作和构建,借助强大的生成式人工智能软件开发助手 Amazon Q 开发者版提升效率,无论数据存储在数据湖、数据仓库,还是第三方或联合数据来源中,均可访问所有数据,同时内置治理功能可满足企业安全需求。 前言 本文将通过 Amazon SageMaker Notebook 实例完成 AIGC 模型的测试与验证,再将模型部署至 Amazon SageMaker Inference Endpoint 实现服务化,最后利用 Amazon

By Ne0inhk

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/

By Ne0inhk
一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

前言 当对机器人动作策略的预测越来越成熟稳定之后(比如ACT、比如扩散策略diffusion policy),为了让机器人可以拥有更好的泛化能力,比较典型的途径之一便是基于预训练过的大语言模型中的广泛知识,然后加一个policy head(当然,一开始背后的模型比较简单,比如有用LSTM或MLP——RoboFlamingo) 再之后,便出来了越来越多成熟稳定的专门的VLA模型,比如OpenVLA,再比如近期介绍过过的π0——用于通用机器人控制的VLA模型:一套框架控制7种机械臂(基于PaliGemma和流匹配的3B模型) 1. π0的意义在于,首次用同一套策略/算法操作不同机器人/机械臂,这种基于机器人大模型的「预训练-微调」模式,很快会越来越多(犹如此前大模型革命NLP 其次CV等各模态,目前到了robot领域),算是代表了通用机器人的核心发展方向 2. 且π0 比英伟达的HOVER早一点,当然,同时期的RDT GR2也有这个潜力的,期待这两 后续的更新 一个多月前(本文首发于25年1月),有朋友曾说,一个月内,π0 会开源来着,当时虽然觉得不太可能,但还是抱着期待,可还

By Ne0inhk