一、准备工作
本教程提供从 0 到 1 的详细步骤,在安卓手机上通过 Termux 运行 Ubuntu,部署本地 Llama 大模型,并集成 OpenClaw 进行 AI 交互,全程无需 Root。建议手机配置:≥4GB 内存,≥64GB 存储,Android 7+。
介绍如何在安卓手机上通过 Termux 和 Ubuntu 容器环境,本地部署 OpenClaw 应用及 Llama 大模型。步骤涵盖 Termux 初始化、Ubuntu 系统安装、Node.js 环境配置、Ollama 或 llama.cpp 模型加载、OpenClaw 安装与连接配置,以及浏览器访问方式。支持无需 Root 权限运行,适合具备基础命令行操作能力的用户进行移动端 AI 开发测试。
本教程提供从 0 到 1 的详细步骤,在安卓手机上通过 Termux 运行 Ubuntu,部署本地 Llama 大模型,并集成 OpenClaw 进行 AI 交互,全程无需 Root。建议手机配置:≥4GB 内存,≥64GB 存储,Android 7+。
# 1. 更新系统包
pkg update -y && pkg upgrade -y
# 2. 安装必要工具
pkg install -y proot-distro git curl wget termux-exec
# 3. 授予存储权限(允许访问手机文件)
termux-setup-storage
# 4. 更换国内源(解决下载慢问题)
echo "deb https://mirrors.tuna.tsinghua.edu.cn/termux/apt/termux-main stable main" > $PREFIX/etc/apt/sources.list
pkg update -y
# 1. 安装 Ubuntu(默认最新 LTS 版本,约 200MB)
proot-distro install ubuntu
# 2. 验证安装并登录 Ubuntu
proot-distro login ubuntu --isolated
# --isolated 参数必须加,避免环境变量冲突
# 登录成功后,终端提示符变为:root@localhost:~#
在 Ubuntu 终端中执行以下命令(确保已通过 proot-distro login ubuntu 进入):
# 1. 更新 Ubuntu 软件源
apt update -y && apt upgrade -y
# 2. 安装必要依赖
apt install -y build-essential git curl wget nano python3 python3-pip nodejs npm
# 卸载旧版本(如果有)
apt remove -y nodejs npm
# 安装 Node.js v22 LTS
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs
# 验证版本(应显示 v22+)
node -v && npm -v
# 安装 pnpm(OpenClaw 推荐包管理器)
npm install -g pnpm
# 1. 安装 Ollama(一键脚本)
curl -fsSL https://ollama.com/install.sh | sh
# 2. 启动 Ollama 服务(后台运行)
nohup ollama serve > ollama.log 2>&1 &
# 后台运行,日志保存到 ollama.log
# 3. 验证安装
ollama --version
# 4. 下载轻量级 Llama 模型(手机推荐 0.5B~7B 参数)
# 下载 Qwen2.5-0.5B(中文支持好,仅需约 300MB 空间)
ollama pull qwen2.5:0.5b
# 或下载 Llama 3.1-8B(英文优秀,约 4.7GB)
# ollama pull llama3.1:8b
# 5. 测试模型(交互模式)
ollama run qwen2.5:0.5b
# 输入'你好'测试,输入'/bye'退出
# 1. 克隆 llama.cpp 仓库
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
# 2. 编译(手机 CPU 优化)
make LLAMA_NATIVE=1 LLAMA_NO_ACCELERATE=1
# 禁用加速,适配手机 CPU
# 3. 下载 GGUF 格式 Llama 模型(推荐 Q4_K_M 量化版,体积小速度快)
# 下载 Qwen2.5-0.8B-UD-Q4_K_M.gguf(约 500MB)
wget https://hf-mirror.com/Qwen/Qwen2.5-0.8B-UD/resolve/main/Qwen2.5-0.8B-UD-Q4_K_M.gguf -P models/
# 4. 启动 llama.cpp API 服务(OpenClaw 可通过 API 访问)
./server -m models/Qwen2.5-0.8B-UD-Q4_K_M.gguf -c 2048 --host 0.0.0.0 --port 8081
# -c 2048:上下文窗口大小
# --host 0.0.0.0:允许外部访问
# --port 8081:API 端口
# 1. 克隆 OpenClaw 仓库(或直接下载最新版)
git clone https://github.com/openclaw/openclaw.git
cd openclaw
# 2. 安装依赖
pnpm install
# 3. 初始化配置(自动生成.env 文件)
pnpm run setup
在初始化过程中,按以下提示配置:
? 请选择默认模型提供商:Ollama
? Ollama API 地址:http://localhost:11434 # Ollama 默认端口
? 请设置 Ollama API 密钥:ollama-local # 任意值即可,Ollama 不需要真实密钥
? 请选择默认模型:qwen2.5:0.5b # 选择已下载的模型
# 修改.env 文件
nano .env
# 添加以下内容(替换原有 Ollama 配置)
MODELS_PROVIDERS_CUSTOM_API_BASE_URL=http://localhost:8081/v1
MODELS_PROVIDERS_CUSTOM_API_KEY=sk-local # 任意值
DEFAULT_MODEL=custom:llama
# 保存并退出(Ctrl+O,回车,Ctrl+X)
# 开发模式启动(适合调试)
pnpm run dev
# 或生产模式启动(推荐,性能更好)
pnpm run build
pnpm run start
# 启动成功后,会显示:
# > OpenClaw is running on http://localhost:8080
http://localhost:8080# 查看手机 IP 地址(在 Ubuntu 终端执行)
ip a
# 查找 inet 后的地址,如 192.168.1.100
# 其他设备浏览器输入:http://手机 IP:8080
# 例如:http://192.168.1.100:8080
# 查看日志
cat ollama.log
# 常见修复:重启服务
pkill ollama
nohup ollama serve > ollama.log 2>&1 &
# 1. 检查模型服务是否运行
# Ollama:
curl http://localhost:11434/v1/models
# 应返回模型列表
# llama.cpp:
curl http://localhost:8081/v1/models
# 应返回模型列表
# 2. 检查.env 配置是否正确
cat .env
# 3. 重启 OpenClaw
pnpm run restart
-c 512 代替 -c 2048)# 1. 启动 Termux
# 2. 进入 Ubuntu
proot-distro login ubuntu --isolated
# 3. 启动 Ollama 服务(如果未启动)
nohup ollama serve > ollama.log 2>&1 &
# 4. 进入 OpenClaw 目录
cd openclaw
# 5. 启动 OpenClaw
pnpm run start
# 6. 打开浏览器访问 http://localhost:8080
# 1. 查看后台进程
jobs
# 2. 将前台进程转为后台(Ctrl+Z 后)
bg
# 3. 恢复后台进程到前台
fg [进程号]
# 4. 永久后台运行(重启后仍生效)
echo "nohup ollama serve > ollama.log 2>&1 &" >> ~/.bashrc
echo "cd /root/openclaw && pnpm run start" >> ~/.bashrc
| 模型名称 | 参数大小 | 占用空间 | 推荐指数 | 特点 |
|---|---|---|---|---|
| Qwen2.5-0.5B | 0.5B | ~300MB | ★★★★★ | 中文支持好,速度快 |
| Llama 3.1-1B | 1B | ~600MB | ★★★★☆ | 英文优秀,轻量级 |
| Mistral-7B-Instruct-v0.3 | 7B | ~4GB | ★★★☆☆ | 性能强,需≥8GB 内存 |
pkill ollamaexit 退出,然后关闭 Termux
微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online