openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

在这里插入图片描述

项目地址:https://github.com/mithun50/openclaw-termux

作者同时提供两种使用形态:Standalone Flutter App(推荐给大多数人) + Termux CLI 包(适合命令行党)

一句话:它让你在不 root 的 Android 设备上,一键搭起 OpenClaw AI Gateway,并通过原生 UI 管理启动、日志、Provider 配置,甚至 SSH 远程连接。


这项目解决了什么问题?

OpenClaw 本身是一个 AI Gateway/代理网关:你可以把多个大模型 Provider(Anthropic / OpenAI / Gemini / OpenRouter / NVIDIA NIM / DeepSeek / xAI 等)统一接入,用统一的方式管理模型、路由、工具调用与仪表盘。

但在 Android 上“把这一套跑起来”,通常会卡在:

  • 环境复杂:Linux 用户态、Node.js、依赖与权限管理
  • 操作分散:Termux、浏览器、日志、配置来回切
  • 常驻困难:后台容易被系统杀掉

openclaw-termux 的思路是:

在 Android 上用 proot-distro 拉起 Ubuntu 用户态环境,再装 Node.js 22 + OpenClaw;同时用一个 Flutter 原生 App 把“安装/配置/启动/查看仪表盘/看日志/设备能力”都集成在一个地方。

两种形态:App vs Termux CLI

1)Flutter App(Standalone)

适合:想“点一点就跑起来”、需要可视化仪表盘与日志的人。

它提供:

  • 一键 Setup:自动下载 Ubuntu rootfs、安装 Node.js 22、安装 OpenClaw
  • 网关控制:Start/Stop、状态指示、健康检查
  • 内置终端:带额外按键工具栏、复制粘贴、可点击 URL
  • 内置 Web Dashboard(WebView):直接加载 localhost:18789 的 OpenClaw 仪表盘(并支持 token URL 展示/复制)
  • Provider 配置与 onboarding:在 App 内完成 API Key 与模型选择
  • 实时日志:支持搜索/过滤
  • 后台保活:Foreground Service + 运行时间追踪 + Setup 进度通知

2)Termux CLI(npm 包)

适合:只要命令行、想写脚本、或者更偏“服务器式管理”的人。

安装后主要命令是 openclawx,比如:

  • openclawx setup:首次安装(proot + Ubuntu + Node + OpenClaw)
  • openclawx start:启动 gateway
  • openclawx onboarding:配置 Provider/API keys
  • openclawx shell:进入 Ubuntu 环境
  • openclawx status / openclawx doctor:检查状态与诊断
注意:Termux 建议从 F-Droid 安装,而不是 Play Store 版本。

亮点功能:Android 设备能力“变成工具”

这项目不只是“把 Gateway 跑起来”,它还把 Flutter App 当作一个 node(节点) 连接到网关,通过 WebSocket node protocol 暴露设备能力给 AI 使用。

文档里列的能力包括(部分需权限):

  • Camera:拍照/录视频/列出摄像头
  • Flash:手电筒开关/状态
  • Location:定位
  • Screen:录屏(需要 MediaProjection 授权)
  • Sensor:传感器读取(需要 Body Sensors 权限)
  • Haptic:震动反馈

并且项目会在启动前自动 patch openclaw.json,放开对应的 allowCommands(文档提到共 15 个命令)。

这意味着你可以把 Android 变成一个“随身 AI 设备节点”:AI 不只是聊天,还能在你的授权范围内调用手机能力完成任务。


安装与上手(按项目 README 的主流程)

Flutter App 流程(推荐)

  1. 从 Releases 下载 APK 并安装(或自行 flutter build apk --release 构建)
  2. 打开 App → 点 Begin Setup
  3. Setup 完成后在 App 内做 Onboarding(配置 API Keys、绑定地址等)
  4. Start Gateway
  5. 打开内置 Dashboard(或浏览器访问 http://localhost:18789 / token URL)

Termux CLI 流程

  1. npm install -g openclaw-termux
  2. openclawx setup
  3. openclawx onboarding
  4. openclawx start

架构一图看懂(项目自带的架构思路)

从上到下大概是:

  • Flutter App:终端 + 网关控制 + WebView Dashboard
  • Native Bridge(Kotlin):负责和 Android 权限/能力打交道
  • Node Provider(WebSocket):把 Camera/Location/Screen 等能力以命令形式暴露给网关
  • proot-distro + Ubuntu:用户态 Linux 环境
  • Node.js 22 + OpenClaw Gateway:最终跑在 Ubuntu 里,Dashboard 默认 localhost:18789

这种架构的好处是:不 root,并且 UI/权限/日志体验比纯 Termux 顺滑很多。


注意事项与坑位(很关键)

  • 电池优化:README 强调要关闭电池优化,否则后台网关很容易被系统杀掉(App 和 Termux 都要注意)
  • 存储空间:需要大约 ~500MB(Ubuntu + Node + OpenClaw)
  • 绑定地址:非 root 设备建议用 Loopback(127.0.0.1)做绑定更安全
  • Bionic Bypass:项目包含对 Android Bionic libc 下 os.networkInterfaces() 崩溃问题的绕过(这类兼容性处理正是这个项目的价值之一)
  • Termux 来源:CLI 形态建议使用 F-Droid 的 Termux

适合谁?

  • 想把 OpenClaw 随身带着走:在手机上跑一个完整的 AI Gateway
  • 想做“移动端 AI 工具箱”:让 AI 在授权下使用摄像头、定位、录屏、传感器等
  • 不想 root、但又想要接近“Linux 环境”的开发/自动化能力
  • 想用一个 App 管理多模型 Provider、网关状态、日志与仪表盘

结语

openclaw-termux 把原本偏“桌面/服务器”的 OpenClaw Gateway,成功搬到了 Android,并且用 Flutter 把关键的运维体验(安装、配置、启动、日志、仪表盘、权限)做成了一套完整产品。

对于想把 AI agent 从电脑扩展到手机的人来说,这是一个非常实用的桥梁项目。

Read more

深入解读 AI 编程工具 — Cursor

在 AI 工具爆发的时代,各类辅助编程产品层出不穷。而其中 Cursor 因其独特的设计与对开发者真实问题的深度关注,正在成为开发者群体热议的焦点。 本文将带你清晰了解:什么是 Cursor?它如何工作?真正解决了哪些痛点?为何能成为行业快速增长的工具?  一、Cursor 的起源与快速成长 Cursor 背后的初创公司 Anysphere 成立于 2022 年,而 Cursor 的首个版本在 2023 年 3 月推出。仅仅两年时间,Anysphere 就完成了 9 亿美元的 C 轮融资,公司估值高达 99 亿美元!更令人惊讶的是,Cursor 的年收入已经突破 5 亿美元,这在开发工具领域几乎前所未有——据我所知,没有其他公司能在推出第一款产品后的两年内达到这样的规模。 Cursor 的快速普及也得益于企业级市场的认可:

AI视频生成模型从无到有:构建、实现与调试完全指南

AI视频生成模型从无到有:构建、实现与调试完全指南

文章目录 * **引言:从理论到实践的跃迁** * **第一部分:理论基石——视频生成模型的核心思想** * **第二部分:开发环境搭建与工具链** * **第三部分:亲手构建一个简易视频生成模型** * **第四部分:系统调试与效果评估** * **第五部分:模型优化与进阶探索** * **第六部分:从玩具到应用——部署与展望** * **结语:你的创造之旅,刚刚开始** 引言:从理论到实践的跃迁 在人工智能内容生成(AIGC)浪潮中,视频生成正成为最具挑战性和想象力的前沿领域。从几秒的动图到理论上无限时长的电影级叙事,技术的边界正在被快速突破。然而,对于大多数开发者和研究者而言,前沿模型如Sora、SkyReels-V2或Wan看似高不可攀,其背后动辄千亿级的数据和庞大的算力需求让人望而却步。 本指南的核心目标,正是要打破这种认知壁垒。我将引导你从最基础的原理出发,亲自动手构建一个具备完整AI特性的视频生成模型。这个模型将遵循“简单但完整”的原则:它可能无法生成好莱坞大片,但会清晰地展现扩散模型如何将噪声转化为连贯的动态序列,以及如何通过注意力机制维

OpenClaw 实战:让 AI 拥有“眼睛“——摄像头访问完全指南

OpenClaw 实战:让 AI 拥有“眼睛“——摄像头访问完全指南

今天冒出个想法,想让openclaw能控制摄像头分析图片。原因是我有本书,网上还没有电子版,想让openclaw分析然后把重点内容讲给我听。 📖让运行在 WSL2 里的 OpenClaw AI 助手能够"看见"摄像头画面。 🚧 探索过程 第一阶段:OpenClaw Node 配对(失败)折腾了 3 小时+,最终因为 WSL2 网络隔离问题放弃。 我在wsl里安了openclaw,他说要控制摄像头,必须在windows上安装node.js,安装npm,折腾了好久,就是报错。结论就是windows和wsl就是隔离的。 具体过程: **安装 Node.js:** 最开始下载了绿色版 Node.js(v24.14.0),遇到了一系列问题: ```powershell # 绿色版 Node.js