OpenCode、OpenClaw 与 Ollama 安装配置指南
OpenCode、OpenClaw 和 TuriX-CUA 三款 AI 智能体工具。OpenCode 是开源 AI 编码代理,支持多端接入和多模型兼容;OpenClaw 是全功能自托管 AI 执行中枢,提供 Docker 及直接安装方式;TuriX-CUA 是基于视觉的桌面操作智能体。文章详细说明了各工具的安装步骤、配置方法及使用场景,重点解决了 OpenClaw 在 Docker 环境下的重启问题。

OpenCode、OpenClaw 和 TuriX-CUA 三款 AI 智能体工具。OpenCode 是开源 AI 编码代理,支持多端接入和多模型兼容;OpenClaw 是全功能自托管 AI 执行中枢,提供 Docker 及直接安装方式;TuriX-CUA 是基于视觉的桌面操作智能体。文章详细说明了各工具的安装步骤、配置方法及使用场景,重点解决了 OpenClaw 在 Docker 环境下的重启问题。

| 序号 | Opencode 介绍 | 说明 |
|---|---|---|
| 1 | opencode 是什么 | OpenCode 是一款开源 AI 编码代理工具,可在终端(TUI)、桌面应用和 IDE 扩展中使用,支持多种大语言模型、上下文感知,主打隐私优先。 |
| 2 | opencode 的定位 | 1. 不是 IDE 插件,而是独立智能体 (Agent),可理解上下文,规划任务、执行代码修改并验证结果。 2. 不是大语言模型本身,而是模型调度层,支持 75+ 的大语言模型提供商(如:Claude、GPT、Gemini、本地的 Llama、Qwen 等)。 3. 采用 MIT 协议开源,社区活跃。 |
| 3 | opencode 的特点 | 多模型兼容: 可连接任意的大语言模型 (LLM) 提供商,也支持本地 LLM 模型,内置了 opencode zen 精选模型。 多端接入: 可在终端 (TUI)、桌面与 IDE 扩展中使用 opencode,使用方式灵活。 上下文感知: 可通过@引用文件,分析整个项目代码库,实现精准修改。 隐私优先: 不存储代码与上下文,适合隐私敏感环境。 会话与协作: 可多会话并行,执行多种操作;且可将会话链接进行分享出来可供参考或调试。 LSP 支持: 可自动加载大语言模型,提供智能补全、诊断与跳转。 交互式编码工作流: 可通过自然语言描述需求或图片参考等方式,AI 会给出实现方案、代码改动和测试建议。 |
| 4 | opencode 的使用场景 | 程序员: 1. 可将需求快速落地为代码实现;2. 代码分析、重构建议与改动;3. 生成测试用例、文档、注释等;4. 学习新库、API、架构模式,提升开发效率。 内容创作: 1. 可实现多种内容的创作(如:公众号内容、营销文案、翻译润色、小说创作等)。 问题处理: 1. 可将其当做是一个经验丰富的助手,告诉他需要排查解决的故障或达成的目标,它就会自主分析解决。 效率提升: 1. 文件整理:批量命名文件、按规则分类归档、检索文件内容、整理混乱内容。2. 数据处理:可分析数据文件,提取关键数据进行统计,并生成报表。3. 编程私教:可让 AI 解释代码原理、给出规划与建议、完成练习项目,建立编程学习的方法。4. 自动化脚本:可识别自动化重复任务、将任务固化为可复用的'自定义命令'。 |
可以使用【MobaXterm】通过 SSH 连接。 开源的编码智能体【Opencode】源码
# 1-Linux 或 Mac 中下载安装 OpenCode 命令(结果显示 Successfully 则表示成功)
curl -fsSL https://opencode.ai/install | bash
# 2-将 OpenCode 添加到全局
source /home/coffeemilk/.bashrc
# 3-启动 opencode 的终端界面命令
opencode
# 3.1-启动 opencode 的 web 端界面命令
opencode web --hostname 192.168.1.37 --port 5000

PowerShell/PowerShell:适用于所有系统!
# 1-Windows 中下载安装 OpenCode 命令
scoop install opencode
# 2-注意:若直接安装 opencode 报错'scoop : 无法将'scoop'项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正确,然后再试一次。'时则执行如下命令安装:
# 2.1-允许运行脚本
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
# 2.2-安装 Scoop
Invoke-RestMethod -Uri https://get.scoop.sh | Invoke-Expression
# PowerShell 是以管理员身份运行的(窗口标题带"管理员"字样)【安装 Scoop】的命令会报错时。需要改用这个命令:
iex "& {$($([System.Net.WebRequest]::Create('https://get.scoop.sh')).GetResponse().Content)}" -RunAsAdmin
# 2.3-安装 Git(Scoop 需要 Git 来添加 bucket)
scoop install git
# 2.4-安装 OpenCode
scoop install opencode
# 3-启动 opencode 的终端界面命令
opencode
# 3.1-启动 opencode 的 web 端界面命令
opencode web --hostname 127.0.0.1 --port 5000

如:我使用 Docker 方式在安装 OpenClaw 后,这个 OpenClaw 容器一直在重启,导致无法使用,此时我就可以使用 opencode 的【plan(建议)】模式(按下 tab 键切换)【而 Build 是执行模式】咨询处理方法:如下图所示:

| 主流 Claw | 定位 | 优点 | 缺点 | 使用场景 |
|---|---|---|---|---|
| OpenClaw (生态标杆) | 全功能、自托管 AI 执行中枢,Claw 生态的标准与标杆,连接 LLM、本地系统与多平台通讯。 开发语言:【TypeScript / Node.js】 | 1. 生态最成熟:(拥有 50 多个交互渠道【如 telegram、钉钉、飞书】;5K 多的技能模块;20 多的大语言模型商)社区活跃,相关教程、插件、问题解决方案十分丰富。 2. 功能完整:可长期记忆、任务规划、工具调用、本地文件操作,MCP 协议支持。 3. 本地优先、隐私可控:数据本地存储,AES-256 加密。 | 1. 资源占用极高:代码量很大 (约 1 百万行),内存占用很高 (1GB+),启动缓慢,二进制大于 150MB。 2. 安装部署较为复杂(需要 Node.js、Docker、网关等配置)Node.js 性能瓶颈明显。 3. 安全依赖版本与配置,默认的防护一般。 | 多平台集成、个人全场景 AI 助手、技术爱好者、需要全功能自动化、长期本地自托管、重度自定义、生产级复杂工作流。 |
| ZeroClaw (性能极致) | OpenClaw 的 Rust 重写版本,主打极致性能、低资源、安全,面向边缘与资源敏感环境。 开发语言:【Rust】 | 1. 性能碾压:冷启动小于 10 毫秒,内存峰值小于 5 兆,单二进制没有依赖且 4M 左右;比 OpenClaw 快 10-15 倍,省 75% 的内存。 2. 零供应商锁定,可一键切换大语言模型。 3. Rust 原生安全:没有 GC、内存安全、并发高效,适合高可靠场景。 | 1. 生态尚新,技能与插件远少于 OpenClaw。 2. 二次开发需要 Rust 功底,门槛较高。 | 边缘计算、IoT 设备、嵌入式、低成本挂机、低功耗长期运行、资源受限硬件、旧设备改造;适合高安全、低功耗场景。 |
| PicoClaw (嵌入式极简) | Go 编写的超轻量 Claw,面向 IOT、嵌入式与 10 美元级硬件。 开发语言【Go】 | 1. 超轻量:内存小于 10MB,冷启动小于 1 秒,单二进制跨架构运行。 2. 硬件友好:可在树莓派、RISC-V 开发板、旧安卓机稳定运行。 3. 配置极简:7 个 Markdown 文件定义行为,无需修改核心代码。 | 1. 功能精简:无复杂记忆与工作流,仅支持基础技能。 2. 生态小,社区活跃低。 | IoT 设备控制、边缘节点、旧设备 AI 化、便携硬件助手。 |
| Nanobot (研究极简) | 港大出品,Python 编写的极简可审计 Claw,面向教学,研究与安全审计。 开发语言【Python】 | 1. 代码极简:仅 4000 行 Python,单目录、单配置,易读易审计。 2. 上手快:Python 生态友好,适合学习与原型验证。 3. 研究友好:MCP 优先,适合教学与安全场景。 | 1. 性能一般:内存大于 100MB,启用大于 1 秒,不适合高并发。 2. 功能有限,无复杂工作流与记忆系统。 | AI Agent 教学、安全审计、快速原型、个人轻量助手。 |
| IronClaw (安全强化) | Rust 编写的安全级 Claw,主打沙箱隔离、数据安全,面向金融、政企等敏感场景。 开发语言【Rust】 | 1. 五层安全纵深:WASM 沙箱+Docker 隔离,权限最小化。 2. Rust 安全 + 内存可控,防注入与越权。 3. 性能接近 ZeroClaw,兼顾安全与效率。 | 1. 配置复杂,部署成本高。 2. 生态小,技能少。 | 金融交易、政企敏感数据处理、高安全自动化。 |
选型建议:
1. 追求全功能、生态:选【OpenClaw】。
2. 追求极致性能 / 低资源:选 【ZeroClaw】。
3. 面向嵌入式 / IoT / 旧设备:选 【PicoClaw】。
4. 用于教学 / 研究 / 安全审计:选 【Nanobot】。
5. 处理敏感数据 / 高安全:选 【IronClaw】。
6. 国内企业快速落地、零部署:选 【MaxClaw / KimiClaw】。
# 使用 Docker 安装 OpenClaw【以 AlmaLinux9.3 为例】
# 1-先安装 Docker
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum makecache fast
yum install -y docker-ce docker-ce-cli containerd.io
# 启动 docker
systemctl start docker
systemctl status docker
systemctl enable docker
# 2-在 docker 中安装 OpenClaw(若是使用本地安装的 ollama 大语言模型则选择 vLLM 配置即可)
git clone https://github.com/openclaw/openclaw.git
cd openclaw
./docker-setup.sh
docker-compose up -d
注意:此时的 openclaw 容器是会一直重启,无法正常使用,是由于'OpenClaw Gateway 在 Docker 容器中运行时,即使配置了 bind: "loopback",Docker 网络也会使其被识别为非本地环回访问。Control UI 是一个安全特性,要求在非环回模式下明确配置允许的来源(origins)。'因此需要设置明确的 allowedOrigins(推荐)即:在 ~/.openclaw/openclaw.json 的 gateway 部分添加 controlUi 配置:
{
"gateway": {
"controlUi": {
"allowedOrigins": [
"http://127.0.0.1:18789",
"http://localhost:18789"
]
}
}
}
如果你从其他机器访问,需要把你的服务器 IP 也加进去:
"allowedOrigins": [ "http://127.0.0.1:18789", "http://localhost:18789", "http://你的服务器 IP:18789" ]
最后执行:
docker-compose down
docker-compose up -d
# 1-安装 nodejs-24
# 1.1-在线安装
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
. "$HOME/.nvm/nvm.sh"
nvm install 24
node -v
npm -v
# 1.1-【也可手动安装 nodejs】
cd /usr/local
wget https://nodejs.org/dist/v24.14.0/node-v24.14.0-linux-x64.tar.xz
tar -xJf node-v24.14.0-linux-x64.tar.xz
# 注意:若不想用软链接,也可以直接加当前解压的 nodejs 路径到系统路径 (PATH) 中:export PATH=/usr/local/node-v24.0.0-linux-x64/bin:$PATH
ln -s /usr/local/node-v24.14.0-linux-x64/bin/node /usr/local/bin/node
ln -s /usr/local/node-v24.14.0-linux-x64/bin/npm /usr/local/bin/npm
ln -s /usr/local/node-v24.14.0-linux-x64/bin/npx /usr/local/bin/npx
node --version
npm --version
# 2-安装 openclaw
dnf update -y
dnf groupinstall -y "Development Tools"
dnf install -y git curl wget
npm config set registry https://registry.npmmirror.com
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
openclaw gateway status
openclaw dashboard
# 3-最后在该服务器的浏览器中输入【IP:18789】即可打开 OpenClaw 的 Web 界面

| 序号 | TuriX-CUA | 说明 |
|---|---|---|
| 1 | 核心定位与原理 | 《1》定位: Computer-Use Agent(电脑使用智能体),替代传统 RPA 与 API 集成,实现'自然语言→AI 规划→桌面操作→结果交付'。 《2》工作流(看-->想-->动): 1. 看:定时截屏,获取桌面 / 应用界面视觉信息。 2. 想:多模态 VLM(如 Qwen3-VL、GPT-4V、Gemini)分析界面、拆解任务、生成操作指令。 3. 动:模拟鼠标点击、键盘输入、滚动等,完成跨软件操作。 《3》优势: 不依赖应用 API、零代码 / 低门槛、自适应 UI 变化、可绕过验证码 |
| 2 | 核心能力 | 《1》跨应用自动化: 浏览器、Office、聊天 / 办公软件、系统设置等,完成订票、做 PPT、数据整理、消息收发等。 《2》数据抓取: 可从网页 / APP 精准提取数据,适配动态页面与验证码。 《3》自然语言驱动: 可用中文 / 英文描述任务,AI 自动生成并执行流程。 《4》模型可替换: 可通过配置文件切换底层 VLM,支持热插拔。 《5》协议兼容: 支持 MCP(Model Context Protocol),可对接 Claude 等第三方智能体。 |
| 3 | 系统支持 | 《1》macOS: 15.6+,仅 Apple Silicon(不支持 Intel)。 《2》Windows: 10+,支持 GUI 自动化与浏览器操作。 |
| 4 | 开源与使用 | 《1》开源免费: 代码托管于 GitHub,个人 / 科研用途完全免费。 《2》上手门槛: 零基础可用,无需标记 UI、无需设计流程。 《3》局限: 存在操作延迟、复杂对话 / 多轮任务易出错、实时性不足、隐私安全需谨慎。 |

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML 转 Markdown在线工具,online
| MaxClaw (云托管) |
| 基于 OpenClaw 的云托管服务 MiniMax(MaxClaw)开箱即用;是月之暗面 (KimiClaw) 出品。 开发语言【基于 OpenClaw 的 TypeScript,云端封装】。 |
| 1. 零部署:云端托管,直接接入通讯平台。 2. 国内友好:适配钉钉、飞书、企业微信,模型本地优化。 3. 运维省心:自动更新、负载均衡。 |
| 1. 数据上传云端,隐私不如自托管。 2. 付费使用,成本随用量上升。 |
| 中小企业快速落地、团队协作、国内办公场景。 |

