统信 UOS V2500 服务器 | OpenClaw AI Agent 全流程安装部署手册

一、文档概述

1.1 文档目的

本文档详细阐述在统信 UOS 服务器操作系统中安装、部署及初始化配置 OpenClaw 的全流程,为运维人员及开发人员可落地的操作指南,确保 OpenClaw 稳定部署并正常发挥其 AI 助手核心能力。

1.2 OpenClaw 简介

OpenClaw 是一款本地 AI Agent 工具,前身为 Clawdbot,经 moltbot 阶段迭代优化,具备高主动性和强系统底层操作能力。核心功能包括执行 Shell 命令、自动化提交 Git PR、管理数据库,支持对接 Telegram、WhatsApp 等主流通讯应用;其 “Skills” 插件机制可按需扩展功能,默认本地部署模式,兼容 Anthropic、OpenAI 等多模型,能有效保障数据隐私安全。

二、环境准备

部署环境为统信 UOS 服务器操作系统,需确保服务器网络通畅(在线安装 Node.js 时),或提前下载好 Node.js 离线安装包;同时需具备服务器 root / 管理员权限,避免权限不足导致操作失败。

三、安装部署步骤

3.1 安装 Node.js

OpenClaw 运行依赖 Node.js 环境,需安装 v24.13.0 版本,提供在线、离线两种安装方式,可根据服务器网络情况选择。

3.1.1 在线安装方式
  1. 执行以下命令安装 nvm(Node.js 版本管理工具):
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash
  1. 加载 nvm 环境(无需重启 Shell):
"$HOME/.nvm/nvm.sh"
  1. 安装 Node.js v24.13.0:
nvm install24
  1. 验证安装结果:
# 验证 Node.js 版本,应输出 "v24.13.0"node -v # 验证 npm 版本,应输出 "11.6.2"npm -v 
3.1.2 离线安装方式

若服务器无外网,可采用离线安装:

  1. 下载 Node.js 离线包(提前在有网环境下载后传输至服务器):
wget https://nodejs.org/dist/v24.13.0/node-v24.13.0-linux-x64.tar.xz 
  1. 解压缩下载的安装包:
tar xvf node-v24.13.0-linux-x64.tar.xz 
  1. 移动解压包至系统标准目录:
mv node-v24.13.0-linux-x64 /usr/local/nodejs 
  1. 配置全局环境变量:
  • 编辑 profile 文件:
vim /etc/profile 
  • 在文件末尾添加以下配置(指定 Node.js 安装目录,将 bin 目录加入系统 PATH):
 export NODE_HOME=/usr/local/nodejs export PATH=$NODE_HOME/bin:$PATH 
  • 保存并退出 vim(操作:按 ESC → 输入 :wq → 回车)。
  1. 使环境变量立即生效:
source /etc/profile 
  1. 验证安装结果:
# 验证 Node.js 版本 node -v # 验证 npm 版本(Node.js 自带,无需单独安装) npm -v 
在这里插入图片描述

3.2 安装 OpenClaw

执行以下一键安装命令,触发 OpenClaw 安装流程:

curl -fsSL https://openclaw.ai/install.sh | bash 

安装完成后终端会弹出确认界面,输入 Yes 并按下回车键,进入 OpenClaw 初始化配置流程。

在这里插入图片描述

3.3 OpenClaw 初始化配置

安装后按终端引导完成初始化配置,核心配置项及操作如下:

3.3.1 服务运行端口配置
在这里插入图片描述
3.3.2 模型对接配置

需配置 Anthropic/OpenAI 密钥、模型地址等信息,本文以 Moonshot AI 模型服务为例:

本文档选择使用2.5模型,模型选择后回车确认:

在这里插入图片描述

在输入模型API key后回车如下图则表则连接模型API成功,继续选择使用的模型:

在这里插入图片描述

输入模型 API key 回车后,如下界面表示连接模型 API 成功,输入准备好的API key:

在这里插入图片描述

模型选择界面如下:

在这里插入图片描述
3.3.3 通讯应用对接配置
在这里插入图片描述
3.3.4 配置Skills插件

推荐选择默认 yes,可启用已符合条件的 4 个技能,快速体验扩展功能;后续可通过补充依赖(安装对应软件、配置权限)解锁更多技能。若暂时无需扩展功能,选择 No 跳过此步骤。

在这里插入图片描述
3.3.5配置Homebrew

推荐选择默认yes,系统会提供 Homebrew 的安装命令,安装后可快速自动部署技能所需依赖。

在这里插入图片描述

选择后进入 Homebrew 安装及技能包管理器选择界面,推荐使用默认 npm

在这里插入图片描述

完成选择后,系统会基于选定的包管理器配置技能依赖安装环境,随后进入缺失功能依赖安装界面,可按需选择安装,或默认跳过(后续需用时再安装):

![[Pasted image 20260202111516.png]]

3.4 服务启动与状态校验

  1. 启动 OpenClaw 服务(配置完成后自动启动,也可手动执行启动命令);
  2. 查看服务运行状态:
openclaw status 
  • 正常状态下终端会显示服务运行中、端口监听正常等信息;
  • 若状态异常,需检查配置项、端口占用、Node.js 环境等。
在这里插入图片描述
  1. 访问 Web 管理界面:
  • 打开浏览器,输入 http://服务器IP:配置端口(端口为初始化配置时指定);

正常情况下可进入 OpenClaw Web 控制台,验证界面功能是否正常加载。

在这里插入图片描述

四、常见问题排查

问题现象排查措施
Node.js 版本验证失败1. 检查环境变量配置是否正确,执行 source /etc/profile 重新加载;

2. 离线安装时确认解压包路径与 NODE_HOME 一致。
OpenClaw 安装脚本执行失败1. 检查服务器网络是否能访问 openclaw.ai

2. 确认服务器已安装 curl 工具(执行 yum install curl/apt install curl 安装)。
Web 界面无法访问1. 检查服务器防火墙 / 安全组是否放行配置端口;

2. 验证服务器 IP 地址是否正确,配置端口是否未被修改。

五、文档附则

  1. 本文档适配 OpenClaw 最新稳定版本及 UOS V2500 服务器系统,若版本迭代,需同步更新安装脚本、配置项等内容;
  2. 部署过程中涉及的敏感信息(如模型密钥、管理员密码)需妥善保管,避免泄露;
  3. 建议部署前备份服务器关键配置,部署后进行功能测试(如执行 Shell 命令、对接通讯应用),确保 OpenClaw 满足业务需求。

Read more

Python 实战:快速上手 PyQt6+Stable Diffusion+OWLv2 图像工具​

Python 实战:快速上手 PyQt6+Stable Diffusion+OWLv2 图像工具​

摘要 这篇文章主要讲如何用 Python 3.12 做一个 “图像生成 + 自动标注” 的桌面工具,用 PyQt6 做界面,集成了 Stable Diffusion 文生图和 OWLv2 自动标注功能,步骤简单,搭配截图就能跟着操作,适合想快速落地图像相关任务的开发者。 一、先搞懂核心技术与价值 1.1 用了哪些技术? * 界面:PyQt6(拖控件做可视化界面,不用写太多 UI 代码); * 文生图:Stable Diffusion(用 Diffusers 框架调用,支持本地模型和在线下载); * 自动标注:OWLv2(能自定义标注类别,比如 “猫”“狗”,不用预训练); * 辅助:Pillow 处理图片、HuggingFace

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

目录 * 引言:轻量化部署的时代突围 * 一.技术栈全景图:精准匹配的黄金组合 * 基础层:硬核环境支撑 * 框架层:深度优化套件 * 工具层:部署利器 * 二.详细步骤:精准匹配CUDA 12.6的黄金组合 * 准备环节 * 1.模型选择 * 2.配置实例 * 3.选择镜像 * 4.进入JupyterLab * 5.进入终端 * 6.连接到ssh * 系统基础依赖安装 * 1.更新源并安装核心依赖 * 2.安装 Python 3.12 和配套 pip * 解决 pip 报错 * 深度学习框架部署:PaddlePaddle-GPU深度调优 * FastDeploy-GPU企业级部署框架 * 1.安装FastDeploy核心组件 * 2.修复urllib3

AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot 简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。 它的工作原理: 它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。 对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格。 3.1 GitHub Copilot 安装与使用 安装前的准备 在开始之前,你需要确保拥有以下条件: 1. GitHub 账号:如果没有,请先去 GitHub

VSCode在WSL环境下无法使用Github Copilot(网络问题)

概要 本文记录了一个案例:VSCode 在 WSL 环境下无法使用 Github Copilot,但是原生 Windows 下使用没问题。 问题表现 使用 VsCode 连接到 WSL 后,Copilot 无法进行自动或手动补全,在聊天窗口输入信息后始终显示“正在准备 Copilot”。 使用 Ctrl+` 打开面板,点击“输出”面板,右上角选择"Github Copilot Chat",可以看到错误日志如下: 2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Initializing Git extension service. 2025-09-03 15:54:27.