[AI实战]Ubuntu 下安装OpenClaw——从零搭建你的专属AI助理

[AI实战]Ubuntu 下安装OpenClaw——从零搭建你的专属AI助理

[AI实战]Ubuntu 下安装OpenClaw——从零搭建你的专属AI助理

前言

OpenClaw是一款功能强大的AI助理框架,支持自定义技能、多模型接入,并能通过聊天软件与你交互。本文将手把手带你在Ubuntu系统上完成OpenClaw的安装与配置,并实现外部安全访问。无论你是AI爱好者还是开发者,都能通过本文快速拥有一个属于自己的AI助理。

环境准备:

  • 操作系统:Ubuntu 20.04 / 22.04 / 24.04(本文以24.04为例)
  • 权限:需要使用root或拥有sudo权限的用户
  • 网络:能够访问GitHub及npm源(建议使用国内镜像加速)

一、升级Node.js至v22+

OpenClaw要求Node.js版本≥22.0.0,低版本会导致npm安装失败。若系统已安装其他版本,请务必升级。

方法一:使用nvm(推荐,便于多版本管理)

1. 安装nvm

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh |bash

安装完成后,重新加载环境变量:

source ~/.bashrc # 若使用bash# source ~/.zshrc # 若使用zsh

2. 安装Node.js v22并设为默认

nvm install22 nvm alias default 22 nvm use 22

3. 验证版本

node-v# 应显示 v22.x.xnpm-v# 检查npm版本

方法二:使用NodeSource官方仓库(系统级安装)

如果你希望直接覆盖系统Node版本,可以使用以下命令(以Ubuntu/Debian为例):

curl-fsSL https://deb.nodesource.com/setup_22.x |bash - apt-getinstall-y nodejs 

CentOS/RHEL用户请使用:

curl-fsSL https://rpm.nodesource.com/setup_22.x |bash - yum install-y nodejs 

方法三:手动下载二进制包

Node.js官网 下载Linux二进制包,解压后配置PATH即可。

二、安装OpenClaw

1. 一键安装(官方推荐)

curl-fsSL https://openclaw.ai/install.sh |bash

若网络不稳定,也可以直接使用npm全局安装(避免脚本问题):

npminstall-g openclaw@latest 

2. 验证安装

openclaw --version

出现版本号即表示安装成功。

3. 初始化配置

openclaw onboard 

此命令将引导你完成基础配置,包括:

  • 选择AI模型(可跳过,后续添加)
  • 配置聊天渠道(如Telegram、飞书等,可跳过)
  • 安装基础技能(建议全选)

跳过模型配置: 若暂时没有API Key,可以选择跳过,后续随时补充。

在这里插入图片描述


选择Open the Web UI:

在这里插入图片描述

4. 修改配置文件以实现外部访问

OpenClaw默认只监听本地(127.0.0.1),如需从局域网其他设备访问Web控制台,需修改配置文件。

配置文件位于 ~/.openclaw/openclaw.json,编辑该文件:

nano ~/.openclaw/openclaw.json 

找到 gateway 部分,将 bind 的值改为 "lan"(监听所有网络接口),并确保端口为 18789

在这里插入图片描述

修改后重启Gateway服务:

openclaw gateway restart 

5. 防火墙放行端口

根据你的防火墙工具,开放18789端口(注意:生产环境建议限制来源IP):

# ufw ufw allow 18789/tcp # firewalld firewall-cmd --add-port=18789/tcp --permanent&& firewall-cmd --reload# iptables iptables -A INPUT -p tcp --dport18789-j ACCEPT 

验证监听状态:

ss -untlp|grep18789

应显示类似 0.0.0.0:18789 的监听记录。

在这里插入图片描述

6. 安全访问:使用SSH隧道(推荐)

由于Web控制台基于HTTP且未配置HTTPS,直接暴露可能带来安全风险。最安全的方式是通过SSH隧道将远程端口映射到本地。

在宿主机(你的物理机)上执行:

ssh-L8888:localhost:18789 root@<虚拟机IP>
在这里插入图片描述
  • 8888:本地监听端口,可自定义
  • <虚拟机IP>:Ubuntu虚拟机的实际IP地址

保持此终端窗口打开,然后打开宿主机浏览器,访问 http://localhost:8888。此时相当于本地访问,完美满足浏览器的“安全上下文”要求,且所有流量均通过SSH加密。

在这里插入图片描述
优点:无需修改OpenClaw配置、无需开放防火墙、流量加密。
缺点:每次访问需保持SSH连接。

三、常见问题与解决

Q1:安装时npm报错“node-domexception”等警告

这是正常现象,不影响使用,可忽略。

Q2:无法从外部访问Web控制台

  • 检查 bind 是否设置为 "lan""0.0.0.0"(注意新版需用 lan 模式)。
  • 确认防火墙已放行18789端口。
  • 尝试使用SSH隧道方式。

Q3:浏览器报“origin not allowed”

在配置文件中添加 controlUi.allowedOrigins,例如:

"controlUi":{"allowedOrigins":["http://你的宿主机IP:18789"]}

然后重启Gateway。

Q4:浏览器提示“需要安全上下文”

这是因为通过HTTP访问非本地地址。解决方案:

  • 使用SSH隧道(推荐)
  • 或配置HTTPS(如使用Tailscale Serve)
  • 或在配置中设置 allowInsecureAuth: true(仅限测试环境)

四、进阶:配置模型与技能

1. 添加AI模型密钥

通过Web控制台或命令行添加:

openclaw config set models.providers.openai.apiKey sk-xxxxxx openclaw models set openai/gpt-4 

2. 安装新技能

使用官方工具 clawhub

npminstall-g clawhub clawhub install tavily-search # 安装联网搜索技能

3. 使用本地模型

如果你有本地部署的模型(如Ollama、vLLM),可通过自定义模型提供商接入,参考[官方文档]( Model Providers - OpenClaw )。

五、总结

通过本文,你已经在Ubuntu上成功搭建了OpenClaw AI助理,并掌握了通过SSH隧道安全访问Web控制台的方法。OpenClaw的强大之处在于其可扩展性——你可以随时添加新技能、接入不同模型,甚至开发自己的插件。

友情提示:建议创建普通用户运行OpenClaw,避免使用root带来安全风险。

如果你在安装过程中遇到任何问题,欢迎在评论区留言交流!

Read more

FPGA小白学习日志二:利用LED实现2选1多路选择器

在上一篇文章中,主播利用炒菜的比喻帮大家介绍了LED工程的建立,所以在读这一篇文章前,大家可以简要回顾以下LED工程的建立流程。本篇内容,主播主要向大家介绍数据选择器工程的实现方法。   在开始之前,我们先来了解一下数据选择器是什么:所谓数据选择器,就是从多个输入的逻辑信号中选择一个逻辑信号输出,实现数据选择功能的逻辑电路就是数据选择器。我们用来打个比方,现在我们手中有两张电影票A和B,但这时我们是不知道到底哪张电影票是允许我们进入电影院的,这时候我们就要去问检票员,检票员说A,那就可以进;否则,B就可以进。通过这个比喻,我们就能理解数据选择器的大体思路了:这里的电影票A与B就相当于输入信号in1与in2,检票员就相当于数据选择信号sel(英文select),电影院就相当于输出信号out,注意这里的输出信号out只有一个。因此,我们就可以在Visio中设计出2-1数据选择器:                               同样,我们给出2-1数据选择器的真值表:                我们来分析以下这个真值表:当选择信号sel为0时,对应输入信号in

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程(AUTOMATIC1111 版) 本教程基于 Windows 系统,适合 AI 绘画爱好者或初学者,旨在帮助大家从零部署并运行本地的 Stable Diffusion 模型界面(Web UI)。我们将从克隆项目、配置环境到运行界面,并附上常见网络问题的解决方案。 一、准备工作 1. 安装依赖 * Python 3.10.x * Git(推荐官网下载最新版) * 显卡驱动 + CUDA(NVIDIA 用户,建议驱动更新到最新版) 安装好后,确保 Python 和 Git 都加入了系统环境变量。 二、克隆项目仓库 使用如下命令克隆 AUTOMATIC1111 的 Web UI 项目:

AI绘画商用探索:Stable Diffusion云端版,成本透明

AI绘画商用探索:Stable Diffusion云端版,成本透明 你是不是也遇到过这样的问题?作为电商店主,每次上新商品都要拍图、修图、排版,费时费力不说,还容易因为图片质量不过关导致转化率低。更头疼的是,找外包团队做图价格高,自己请设计师人力成本又压不住,想用AI生成图片吧,本地电脑跑不动,显卡不够强,出图慢、画质差,还动不动崩溃。 别急,今天我要分享一个真正适合电商场景的解决方案——Stable Diffusion 云端部署 + 商用级模型测试 + 成本可控的按需计费模式。这套方案我已经在多个店铺实测过,从服装、家居到数码产品都能稳定输出高质量、无版权风险的商品图,关键是:不用买高端显卡,不依赖本地设备,还能清楚知道每张图花了多少钱。 这篇文章就是为你量身打造的。我会手把手带你从零开始,在ZEEKLOG星图平台一键部署 Stable Diffusion 云端环境,教你如何快速切换不同模型测试效果,规避版权争议,同时精确掌握资源消耗和费用构成。无论你是技术小白还是刚接触AI绘画,只要跟着步骤操作,20分钟内就能生成第一张可商用的AI商品图。 更重要的是,我们会重点讲清楚“钱

Verilog实现时序逻辑电路设计实验项目应用

从零构建可靠数字系统:Verilog时序逻辑实战全解析 你有没有遇到过这样的情况?明明仿真波形完美,下载到FPGA后电路却“抽风”——按键响应错乱、状态机卡死、输出信号毛刺频发。问题很可能出在 时序设计的根基上 。 在组合逻辑中,输入变了输出就变;但在真实世界里,我们更需要的是能“记住”当前状态、按节拍推进的 时序逻辑电路 。它不仅是计数器和寄存器的核心,更是所有复杂数字系统(比如CPU控制单元、通信协议引擎)的“心跳”。 本文将带你深入一次完整的Verilog时序逻辑实验项目,不讲空泛理论,而是聚焦于 工程师真正关心的问题 :如何用D触发器打牢基础?怎样写出综合友好的FSM?面对异步信号该如何处理?我们将一步步揭开这些关键技术背后的工程实践细节。 D触发器:不只是 always @(posedge clk) 这么简单 别小看这个最基础的元件。一个写得不对的D触发器,轻则综合出锁存器,重则引发亚稳态连锁反应。 边沿触发的本质是“同步采样” D触发器的核心功能是在 时钟上升沿瞬间捕获输入值 ,并在整个周期内保持稳定。这种机制让整个系统有了统一的“节拍”