宝塔面板部署 OpenClaw(Clawdbot)实战指南:从零到云端 AI 助理

宝塔面板部署 OpenClaw(Clawdbot)实战指南:从零到云端 AI 助理

文章目录

宝塔面板部署 OpenClaw(Clawdbot)实战指南:从零到云端 AI 助理

2026 年最新实战教程 | 适合宝塔老手与新手

随着 AI 助理需求的快速增长,越来越多开发者和站长开始尝试将 OpenClaw(原 Clawdbot、Moltbot)部署在云服务器上,实现 24 小时在线、自主可控的数字助手。相比本地运行,云端部署不仅稳定,而且可以彻底解决环境冲突、断线和性能瓶颈问题。

本文结合宝塔面板实战经验,为你提供一套完整、保姆级的部署方案,同时增加安全与访问优化策略,保证新手也能快速上手。


在这里插入图片描述

一、前期准备

在这里插入图片描述

1. 服务器选择

  • 推荐配置:2 核 CPU + 2–4 GB 内存
  • 操作系统:Debian、Ubuntu、CentOS 或国产云系统(如 OpenCloudOS/Alibaba Cloud Linux)
  • 网络位置:海外机房节点访问国际大模型更顺畅
  • 面板要求:宝塔面板需安装并可管理 Node.js 与 Nginx
⚠️ 提示:如果是新手,没有服务器可选择阿里云轻量应用服务器,直接安装 Moltbot 应用镜像,省去环境配置步骤。

2. 工具准备

  • SSH 客户端(如 MobaXterm、Termius)
  • 浏览器访问宝塔面板
  • OpenSSL(生成 Basic Auth 密码用)

二、OpenClaw 安装步骤

1. 安装 Node.js

部分国产操作系统默认 Node 版本过低,需要手动升级到 v24.x 稳定版
在宝塔面板:

  1. 进入 网站 → Node 项目 → Node 版本管理器
  2. 更新版本列表,安装最新稳定版 v24.13.0
  3. 设置命令行默认 Node 版本为刚刚安装的稳定版

2. 获取 OpenClaw 安装包

在这里插入图片描述

打开 SSH 终端,执行以下命令:

curl -fsSL https://clawd.bot/install.sh |bash
脚本会自动拉取最新代码和依赖,支持快速初始化。
在这里插入图片描述

3. 安装 OpenClaw

安装完成 Node.js 后,执行:

npminstall -g clawdbot@latest --verbose --registry=https://registry.npmmirror.com 
在这里插入图片描述
在这里插入图片描述

全局安装确保可以直接在任意目录使用 clawdbot 命令。

4. 初始化配置

执行初始化向导:

clawdbot onboard --install-daemon 

根据提示完成配置:

  • 风险提示:选择 yes 确认
  • Onboarding mode:快速开始即可
  • 模型/鉴权提供方:可选 Moonshot、Qwen 或自定义
  • 选择通道:网页对话或 CLI 对话
  • 技能配置:可在此安装常用技能,亦可跳过

初始化完成后,会生成 Token,务必保存,用于后续访问授权。

5. 安装服务并启动

因为面板免密登录无法安装后台服务,需要 SSH 执行:

clawdbot daemon install clawdbot daemon start 
在这里插入图片描述
在这里插入图片描述

至此,OpenClaw 已经在服务器后台运行,等待访问授权。


三、反向代理配置(公网访问)

OpenClaw 默认监听本地端口,直接暴露公网存在安全风险。通过宝塔面板配置 Nginx 反向代理和 HTTPS,可以安全访问。

1. 创建站点

  • 宝塔面板 → 网站 → 添加网站
  • 域名填实际域名(可先用 IP 测试)

绑定 SSL 证书,提高访问安全性

在这里插入图片描述


在这里插入图片描述

2. 配置反向代理

  • 打开 反向代理 → 添加配置
  • 填写本地服务地址,如:
目标 URL: http://127.0.0.1:18789 

保存并应用

在这里插入图片描述

3. 替换 Token 地址

将初始化生成的本地 URL 替换为公网域名:

http://localhost:18789/?token=xxx --> https://yourdomain.com/?token=xxx 
在这里插入图片描述

执行:

clawdbot devices list clawdbot devices approve <request-id>

确认访问授权完成后,即可在浏览器中访问并对话。


在这里插入图片描述

四、增加访问安全(Basic Auth)

为了防止 Token 泄露,可在 Nginx 反向代理上增加 Basic Auth:

  1. 生成 htpasswd 文件:
printf"用户名:$(openssl passwd -apr1 密码)\n"> /www/server/nginx/conf/clawd.pass chown root:www /www/server/nginx/conf/clawd.pass chmod640 /www/server/nginx/conf/clawd.pass 
  1. 修改反向代理配置:
auth_basic "Authorization"; auth_basic_user_file /www/server/nginx/conf/clawd.pass; 
  1. 保存并重载 Nginx,访问时需要输入用户名和密码
✅ 通过 Basic Auth + HTTPS + Token,安全性大幅提升。

在这里插入图片描述


在这里插入图片描述

五、实践优化经验

  1. 海外机房访问大模型延迟更低,尤其 Qwen、Moonshot 等国际服务
  2. 快速回滚:宝塔删除站点即可清理环境,重新部署仅需几分钟
  3. 资源隔离:AI 助理独立运行,不影响其他服务
  4. 日志与调试:通过 SSH 查看 clawdbot daemon 日志,便于排查问题
  5. 技能和 API Key 管理:可随时在网页端或 CLI 配置,灵活升级

六、总结

通过宝塔面板部署 OpenClaw,不仅省去了复杂的 Docker 和依赖配置,也解决了公网访问和安全问题。整个流程可以概括为:

  1. 安装 Node.js 并拉取 OpenClaw
  2. 初始化并生成 Token
  3. 安装后台服务
  4. 配置 Nginx 反向代理与 HTTPS
  5. (可选)增加 Basic Auth

整个部署过程新手也能在 10–15 分钟完成,真正实现云端全天候 AI 助理。

技术的核心价值,就是把复杂问题变得简单。以前需要调环境、查日志、管端口,现在点击几步即可拥有自己的 AI 分身。

总结来看,通过本文的方法,使用宝塔面板部署 OpenClaw(Clawdbot)可以实现从零到云端的完整 AI 助理搭建流程。核心优势在于:

  1. 简化部署流程:不依赖 Docker 或复杂环境配置,通过 Node.js 全局安装即可快速启动。
  2. 安全可靠:结合 Nginx 反向代理、HTTPS 和 Basic Auth,有效防止 Token 泄露和未经授权访问。
  3. 灵活可控:初始化向导、技能管理和 API Key 配置均可随时调整,适应不同业务场景。
  4. 易于运维:后台服务通过 clawdbot daemon 管理,日志可随时查看,宝塔面板提供一键回滚与站点隔离功能。
  5. 高可用性:云端部署保证全天候运行,海外机房可优化访问大模型延迟。

总体而言,这套方案兼顾新手友好专业运维能力,实现了云端 AI 助理的快速上线与安全访问。无论是个人实验还是企业应用,都能在短时间内搭建起稳定、可控的智能助手服务。

Read more

Clawdbot全面实测:如何用一台Mac mini搭建7×24小时“全职AI员工“,让你躺着也能出活

ClawdBot 部署指南与功能解析 一、ClawdBot 核心定义 ClawdBot 本质是一款可本地部署的 AI 助手网关工具,核心依托 Gateway 进程实现多维度功能串联,堪称一款 7x24 小时不间断运行的智能化虚拟助手。其核心能力涵盖四大模块: * 跨平台通信对接:兼容 Telegram、WhatsApp、Discord、iMessage 等主流即时通讯工具; * 多模型调用适配:支持 Claude、GPT 等在线模型,同时兼容各类本地部署的 AI 模型; * 系统级操作权限:可执行终端命令、读写本地文件、操控浏览器等基础运维动作; * 自动化任务管控:具备定时任务调度、流程自动化触发等主动运维能力。 与普通 AI 工具相比,ClawdBot 具备上下文记忆能力、硬件操控权限及主动执行属性。据 Mashable 报道,该工具的火爆曾间接导致 Mac mini

By Ne0inhk
RTX4090:AI与深度学习应用实践的革命性推动者

RTX4090:AI与深度学习应用实践的革命性推动者

RTX4090:AI与深度学习应用实践的革命性推动者 🌟 你好,我是 励志成为糕手 ! 🌌 在代码的宇宙中,我是那个追逐优雅与性能的星际旅人。 ✨ 每一行代码都是我种下的星光,在逻辑的土壤里生长成璀璨的银河; 🛠️ 每一个算法都是我绘制的星图,指引着数据流动的最短路径; 🔍 每一次调试都是星际对话,用耐心和智慧解开宇宙的谜题。 🚀 准备好开始我们的星际编码之旅了吗? 目录 * RTX4090:AI与深度学习应用实践的革命性推动者 * 摘要 * 1. RTX4090与AI计算的完美结合 * 1.1 硬件规格与AI加速能力 * 1.1.1 Tensor核心与AI加速 * 1.2 与前代产品的性能对比 * 1.2.1 深度学习框架性能测试 * 1.2.2 大型模型推理性能 * 2. 大模型训练实践与优化 * 2.1 显存管理策略 * 2.1.1 显存占用分析与优化 * 2.1.2

By Ne0inhk
零基础学AI大模型之RunnableLambda

零基础学AI大模型之RunnableLambda

大家好,我是工藤学编程 🦉一个正在努力学习的小博主,期待你的关注实战代码系列最新文章😉C++实现图书管理系统(Qt C++ GUI界面版)SpringBoot实战系列🐷【SpringBoot实战系列】SpringBoot3.X 整合 MinIO 存储原生方案分库分表分库分表之实战-sharding-JDBC分库分表执行流程原理剖析消息队列深入浅出 RabbitMQ-RabbitMQ消息确认机制(ACK)AI大模型零基础学AI大模型之RunnableParallel 前情摘要 1、零基础学AI大模型之读懂AI大模型 2、零基础学AI大模型之从0到1调用大模型API 3、零基础学AI大模型之SpringAI 4、零基础学AI大模型之AI大模型常见概念 5、零基础学AI大模型之大模型私有化部署全指南 6、零基础学AI大模型之AI大模型可视化界面 7、零基础学AI大模型之LangChain 8、零基础学AI大模型之LangChain六大核心模块与大模型IO交互链路 9、零基础学AI大模型之Prompt提示词工程 10、零基础学AI大模型之LangChain-Prompt

By Ne0inhk
【人工智能之深度学习】8. 轻量化网络设计:MobileNet V2倒残差结构全解析与部署实战

【人工智能之深度学习】8. 轻量化网络设计:MobileNet V2倒残差结构全解析与部署实战

摘要:随着移动端与嵌入式设备对AI能力的需求激增,轻量化神经网络成为研究热点。MobileNet V2作为轻量化网络的里程碑之作,通过创新的倒残差结构和线性瓶颈理论,在保持较高准确率的同时大幅降低了模型参数量与计算量。本文从数学原理出发,系统拆解倒残差结构的设计逻辑,对比标准残差与倒残差的核心差异;深入解析线性瓶颈理论如何解决ReLU在低维特征空间的信息丢失问题;基于PyTorch实现完整的MobileNet V2模型,并详细讲解每一层的设计细节;通过实战案例演示模型训练、量化压缩、跨设备部署的全流程,包括在iPhone、Jetson Nano、树莓派等设备上的性能对比;最后结合工业质检场景,展示如何将MobileNet V2应用于实时缺陷检测任务。本文适合深度学习工程师、移动端AI开发者及研究人员,为轻量化网络的设计与部署提供从理论到实践的完整指南。 AI领域优质专栏欢迎订阅! 【DeepSeek深度应用】 【机器视觉:C# + HALCON】 【人工智能之深度学习】 【AI 赋能:Python 人工智能应用实战】 【AI工程化落地与YOLOv8/v9实战】 文章目

By Ne0inhk