openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

在这里插入图片描述

项目地址:https://github.com/mithun50/openclaw-termux

作者同时提供两种使用形态:Standalone Flutter App(推荐给大多数人) + Termux CLI 包(适合命令行党)

一句话:它让你在不 root 的 Android 设备上,一键搭起 OpenClaw AI Gateway,并通过原生 UI 管理启动、日志、Provider 配置,甚至 SSH 远程连接。


这项目解决了什么问题?

OpenClaw 本身是一个 AI Gateway/代理网关:你可以把多个大模型 Provider(Anthropic / OpenAI / Gemini / OpenRouter / NVIDIA NIM / DeepSeek / xAI 等)统一接入,用统一的方式管理模型、路由、工具调用与仪表盘。

但在 Android 上“把这一套跑起来”,通常会卡在:

  • 环境复杂:Linux 用户态、Node.js、依赖与权限管理
  • 操作分散:Termux、浏览器、日志、配置来回切
  • 常驻困难:后台容易被系统杀掉

openclaw-termux 的思路是:

在 Android 上用 proot-distro 拉起 Ubuntu 用户态环境,再装 Node.js 22 + OpenClaw;同时用一个 Flutter 原生 App 把“安装/配置/启动/查看仪表盘/看日志/设备能力”都集成在一个地方。

两种形态:App vs Termux CLI

1)Flutter App(Standalone)

适合:想“点一点就跑起来”、需要可视化仪表盘与日志的人。

它提供:

  • 一键 Setup:自动下载 Ubuntu rootfs、安装 Node.js 22、安装 OpenClaw
  • 网关控制:Start/Stop、状态指示、健康检查
  • 内置终端:带额外按键工具栏、复制粘贴、可点击 URL
  • 内置 Web Dashboard(WebView):直接加载 localhost:18789 的 OpenClaw 仪表盘(并支持 token URL 展示/复制)
  • Provider 配置与 onboarding:在 App 内完成 API Key 与模型选择
  • 实时日志:支持搜索/过滤
  • 后台保活:Foreground Service + 运行时间追踪 + Setup 进度通知

2)Termux CLI(npm 包)

适合:只要命令行、想写脚本、或者更偏“服务器式管理”的人。

安装后主要命令是 openclawx,比如:

  • openclawx setup:首次安装(proot + Ubuntu + Node + OpenClaw)
  • openclawx start:启动 gateway
  • openclawx onboarding:配置 Provider/API keys
  • openclawx shell:进入 Ubuntu 环境
  • openclawx status / openclawx doctor:检查状态与诊断
注意:Termux 建议从 F-Droid 安装,而不是 Play Store 版本。

亮点功能:Android 设备能力“变成工具”

这项目不只是“把 Gateway 跑起来”,它还把 Flutter App 当作一个 node(节点) 连接到网关,通过 WebSocket node protocol 暴露设备能力给 AI 使用。

文档里列的能力包括(部分需权限):

  • Camera:拍照/录视频/列出摄像头
  • Flash:手电筒开关/状态
  • Location:定位
  • Screen:录屏(需要 MediaProjection 授权)
  • Sensor:传感器读取(需要 Body Sensors 权限)
  • Haptic:震动反馈

并且项目会在启动前自动 patch openclaw.json,放开对应的 allowCommands(文档提到共 15 个命令)。

这意味着你可以把 Android 变成一个“随身 AI 设备节点”:AI 不只是聊天,还能在你的授权范围内调用手机能力完成任务。


安装与上手(按项目 README 的主流程)

Flutter App 流程(推荐)

  1. 从 Releases 下载 APK 并安装(或自行 flutter build apk --release 构建)
  2. 打开 App → 点 Begin Setup
  3. Setup 完成后在 App 内做 Onboarding(配置 API Keys、绑定地址等)
  4. Start Gateway
  5. 打开内置 Dashboard(或浏览器访问 http://localhost:18789 / token URL)

Termux CLI 流程

  1. npm install -g openclaw-termux
  2. openclawx setup
  3. openclawx onboarding
  4. openclawx start

架构一图看懂(项目自带的架构思路)

从上到下大概是:

  • Flutter App:终端 + 网关控制 + WebView Dashboard
  • Native Bridge(Kotlin):负责和 Android 权限/能力打交道
  • Node Provider(WebSocket):把 Camera/Location/Screen 等能力以命令形式暴露给网关
  • proot-distro + Ubuntu:用户态 Linux 环境
  • Node.js 22 + OpenClaw Gateway:最终跑在 Ubuntu 里,Dashboard 默认 localhost:18789

这种架构的好处是:不 root,并且 UI/权限/日志体验比纯 Termux 顺滑很多。


注意事项与坑位(很关键)

  • 电池优化:README 强调要关闭电池优化,否则后台网关很容易被系统杀掉(App 和 Termux 都要注意)
  • 存储空间:需要大约 ~500MB(Ubuntu + Node + OpenClaw)
  • 绑定地址:非 root 设备建议用 Loopback(127.0.0.1)做绑定更安全
  • Bionic Bypass:项目包含对 Android Bionic libc 下 os.networkInterfaces() 崩溃问题的绕过(这类兼容性处理正是这个项目的价值之一)
  • Termux 来源:CLI 形态建议使用 F-Droid 的 Termux

适合谁?

  • 想把 OpenClaw 随身带着走:在手机上跑一个完整的 AI Gateway
  • 想做“移动端 AI 工具箱”:让 AI 在授权下使用摄像头、定位、录屏、传感器等
  • 不想 root、但又想要接近“Linux 环境”的开发/自动化能力
  • 想用一个 App 管理多模型 Provider、网关状态、日志与仪表盘

结语

openclaw-termux 把原本偏“桌面/服务器”的 OpenClaw Gateway,成功搬到了 Android,并且用 Flutter 把关键的运维体验(安装、配置、启动、日志、仪表盘、权限)做成了一套完整产品。

对于想把 AI agent 从电脑扩展到手机的人来说,这是一个非常实用的桥梁项目。

Read more

OpenVINO Stable Diffusion完整指南:高效AI图像生成技术解析

OpenVINO Stable Diffusion完整指南:高效AI图像生成技术解析 【免费下载链接】stable_diffusion.openvino 项目地址: https://gitcode.com/gh_mirrors/st/stable_diffusion.openvino 还在为AI图像生成速度慢而困扰?想要在普通设备上也能快速创作高质量数字艺术?OpenVINO优化Stable Diffusion技术为您提供了完美的解决方案,让AI图像生成在边缘设备上实现质的飞跃! 技术挑战与核心解决方案 传统Stable Diffusion的痛点: * 依赖高端GPU硬件,部署成本高 * 推理速度慢,影响创作效率 * 内存占用大,限制应用场景 OpenVINO优化方案的优势: 通过Intel OpenVINO工具包对Stable Diffusion模型进行深度优化,实现: * 硬件兼容性扩展:支持从服务器到边缘设备的全面覆盖 * 性能显著提升:推理速度提升2-3倍,内存占用减少30% * 功能完整性保持:完全兼容原版模型的所有功能特性 OpenVINO优化

【2024最全Seedance 2.0解析】:基于17篇顶会论文+3家AIGC大厂内部技术文档的架构逆向推演

第一章:Seedance 2.0 双分支扩散变换器架构解析 Seedance 2.0 是面向高保真视频生成任务设计的新型双分支扩散变换器(Dual-Branch Diffusion Transformer),其核心创新在于解耦时空建模路径:一条分支专注帧内空间语义重建,另一条分支显式建模跨帧时序动态。该架构摒弃了传统单流Transformer对时空维度的粗粒度联合编码,转而通过协同门控机制实现分支间细粒度特征对齐。 双分支协同机制 空间分支采用分层ViT结构,以16×16 patch嵌入输入,逐级下采样并保留局部细节;时间分支则将同一空间位置在多帧中的token沿时间轴堆叠,经轻量级时序注意力模块处理。两分支输出通过Cross-Gating Fusion(CGF)模块融合,其门控权重由共享的上下文感知投影器动态生成。 关键组件实现 class CrossGatingFusion(nn.Module): def __init__(self, dim): super().__init__() self.proj_s = nn.Linear(dim, dim) # 空间分支门控投影

Ops-CV库介绍:赋能AIGC多模态视觉生成的加速利器

Ops-CV库介绍:赋能AIGC多模态视觉生成的加速利器

前言 Ops-CV是昇腾CANN生态专属的视觉算子库,核心定位是为视觉处理任务提供高效、轻量化的昇腾NPU原生加速能力,其不仅覆盖传统计算机视觉全流程,更深度适配当前AIGC多模态生成场景(图像生成、图文联动生成、AIGC内容优化等),成为连接AIGC模型与昇腾硬件的核心桥梁,解决AIGC视觉生成中“耗时高、适配难、算力利用率低”的核心痛点,助力AIGC多模态应用快速落地。 在AIGC多模态技术快速迭代的当下,图像生成(如Stable Diffusion等潜在扩散模型)、图文联动生成已成为主流应用方向,但这类场景的视觉处理环节(生成图像预处理、特征对齐、内容优化、端侧适配)往往面临瓶颈——AIGC模型生成的图像需经过一系列视觉优化才能适配下游场景,常规视觉库无法高效利用昇腾NPU算力,导致生成-优化全流程延迟偏高,且难以适配边缘端低功耗、低内存的部署需求,而ops-cv的出现恰好填补了这一空白。 一、Ops-CV核心定位与AIGC适配基础 Ops-CV并非通用视觉库,而是深度绑定昇腾CANN生态、专为硬件加速设计的视觉算子集合,其核心能力围绕“视觉处理全流程加速”展开,涵盖图

大模型基于llama.cpp量化详解

大模型基于llama.cpp量化详解

概述 llama.cpp 是一个高性能的 LLM 推理库,支持在各种硬件(包括 CPU 和 GPU)上运行量化后的大语言模型。本文档详细介绍如何使用 llama.cpp 将 HuggingFace 格式的模型转换为 GGUF 格式,并进行不同程度的量化。 GGUF 格式:GGUF(Georgi Gerganov Universal Format)是 llama.cpp 专门设计的模型文件格式,针对快速加载和保存模型进行了优化,支持单文件部署,包含加载模型所需的所有信息,无需依赖外部文件。 1.安装cmake CMake 是跨平台的构建工具,用于编译 llama.cpp 项目。 下载地址:https://cmake.org/download/ 安装建议: