nanobot 本地部署指南:多通道(Web/CLI/QQ)统一调度
1. 项目简介
nanobot 是一款超轻量级的个人人工智能助手,灵感来源于 OpenClaw 项目。它的核心优势在于代码精简,仅需约 4000 行即可提供完整的代理功能,相比同类工具如 Clawdbot(需 43 万行)减少了 99% 的体积。
内置 vllm 部署的 Qwen3-4B-Instruct-2507 模型,配合 chainlit 构建推理界面。最实用的是它支持多种交互方式:网页聊天、命令行交互以及 QQ 机器人接入,实现统一的消息调度和处理。无论你是想搭建私人 AI 助手,还是为团队配置智能问答系统,nanobot 都是一个轻量且高效的选择。
2. 环境准备与快速部署
2.1 系统要求
在动手之前,请确认你的机器满足以下基础条件:
- 操作系统:Linux(推荐 Ubuntu 20.04+ 或 CentOS 7+)
- Python 版本:3.8 或更高
- 显卡:至少 8GB 显存的 NVIDIA 显卡(用于运行 4B 参数模型)
- 内存:建议 16GB 或以上
- 存储空间:至少 20GB 可用空间
2.2 一键部署步骤
部署过程相当简单,几个命令就能搞定:
# 克隆项目仓库
git clone https://github.com/sonhhxg/nanobot.git
cd nanobot
# 创建 Python 虚拟环境
python -m venv venv
source venv/bin/activate
# 安装依赖包
pip install -r requirements.txt
# 启动模型服务
python serve_model.py
部署完成后,模型服务会自动在后台运行。整个过程通常需要 10-20 分钟,具体耗时取决于网络速度和硬件性能。
3. 验证部署状态
3.1 检查模型服务
部署完成后,先确认模型服务是否正常运行。打开终端输入:
cat /root/workspace/llm.log
如果看到类似下面的输出,说明模型加载成功:
Model loaded successfully
vLLM engine initialized
Ready for inference
这个日志文件记录了模型加载和初始化的全过程,如果遇到问题,这里会有详细的错误信息。
3.2 测试 Chainlit 界面
nanobot 默认使用 Chainlit 提供网页聊天界面。在浏览器中访问 http://localhost:8000,你应该能看到一个简洁的聊天窗口。
试着在输入框提问,比如'你能做什么?'或者'介绍一下你自己'。如果一切正常,你会看到模型生成的回复。
4. 基本功能使用
4.1 网页聊天界面
Chainlit 提供的网页界面是最直观的使用方式。界面主要分为三部分:
- 左侧边栏:显示聊天历史记录
- 主聊天区域:显示当前对话内容
- :用于输入问题

