OpenClaw Gateway 安装失败:systemctl --user is-enabled unavailable 排查与解决(完整踩坑记录)

OpenClaw Gateway 安装失败:systemctl --user is-enabled unavailable 排查与解决(完整踩坑记录)
说明:仅供学习使用,请勿用于非法用途,若有侵权,请联系博主删除

作者:zhu6201976

最近在安装 OpenClaw Gateway 时,遇到了一个比较奇怪的错误:

systemctl is-enabled unavailable Command failed: systemctl --user is-enabled openclaw-gateway.service

看起来只是一个简单的 systemd 错误,但实际上背后涉及:

  • systemd user service
  • Node.js / nvm 环境
  • PATH 环境变量
  • CLI daemon 启动方式

这篇文章记录了 完整的排查过程 + 最终解决方案


一、运行环境

我的环境如下:

Window11 + WSL2
Ubuntu 24.04.4 LTS
nvm + Node v24.14.0
OpenClaw 2026.3.2

安装 OpenClaw 后执行:

openclaw onboard --install-daemon

出现错误:

Gateway service check failed:
Error: systemctl is-enabled unavailable
Command failed: systemctl --user is-enabled openclaw-gateway.service


二、OpenClaw Gateway 架构

OpenClaw Gateway 实际上是通过 systemd user service 运行的。

架构大致如下:

OpenClaw CLI


openclaw gateway install


systemctl --user


systemd user service


openclaw-gateway.service


Node runtime (nvm)


OpenClaw Gateway

因此任何一层出问题都会导致 Gateway 无法启动。


三、systemd 启动流程

当执行:

openclaw gateway start

实际运行流程是:

openclaw gateway start


systemctl --user restart openclaw-gateway.service


systemd user service


ExecStart


node openclaw gateway run

所以本质上就是:

systemd 负责守护 Node 进程。

四、第一个问题:systemd user service 未启用

先检查 service 状态:

systemctl --user is-enabled openclaw-gateway.service

输出:

disabled

启用 service:

systemctl --user enable openclaw-gateway.service


五、最终解决方案

找到 node 和 openclaw 的路径:

which node
which openclaw

输出:

/home/tesla/.nvm/versions/node/v24.14.0/bin/node
/home/tesla/.nvm/versions/node/v24.14.0/bin/openclaw

然后修改 service 文件:

~/.config/systemd/user/openclaw-gateway.service

完整配置:

[Unit]
Description=OpenClaw Gateway
After=network.target

[Service]
Type=simple
Environment="PATH=/home/tesla/.nvm/versions/node/v24.14.0/bin:/usr/local/bin:/usr/bin:/bin"
ExecStart=/home/tesla/.nvm/versions/node/v24.14.0/bin/openclaw gateway run
Restart=always
RestartSec=5

[Install]
WantedBy=default.target


六、重新加载 systemd

执行:

systemctl --user daemon-reload
systemctl --user restart openclaw-gateway

检查状态:

systemctl --user status openclaw-gateway

输出:

Active: active (running)
Main PID: node

说明服务已经正常运行。


七、最终运行效果

● openclaw-gateway.service - OpenClaw Gateway
Loaded: loaded
Active: active (running)
Main PID: node

Gateway 成功启动 🎉


八、总结(踩坑记录)

这次安装 OpenClaw Gateway 一共踩了 三个坑

1 systemd user service 未启用

需要执行:

systemctl --user enable openclaw-gateway.service


2 systemd 不加载 nvm 环境

解决:

Environment="PATH=..."


3 ExecStart 必须使用绝对路径

否则会出现:

openclaw: command not found


九、经验总结

如果使用 nvm + systemd 运行 Node 服务,一定要注意:

systemd 不会加载 .bashrc
systemd 不会加载 nvm
systemd PATH 很干净

最稳定的方式是:

使用绝对路径
显式指定 PATH


十、成功展示

Read more

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。         当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。         但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型!  步骤 0:安装 Docker 桌面         我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍         如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。 步骤 1:安装 CUDA 以获得 GPU 支持         如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)         打开CUDA 下载页面,

By Ne0inhk
在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。  步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT         要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。 安装 Ollama Ollama 是一个轻量级平台,可以轻松运行本地 LLM。 下载Ollama 访问官方网站:https://ollama.com * 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。 * 验证安装 安装后,打开终端并运行: ollama --version  如果 Ollama 安装正确,

By Ne0inhk