ClawdBot自主部署:从Docker到Web UI全程离线,无数据外泄风险
ClawdBot自主部署:从Docker到Web UI全程离线,无数据外泄风险
你是否担心AI助手把聊天记录传到千里之外的服务器?是否厌倦了每次提问都要联网、等响应、看隐私协议?ClawdBot不是另一个云端API包装器——它是一台真正属于你的AI终端,从模型加载、请求处理到界面交互,全程运行在本地设备上,不发一包数据出网,不依赖任何外部服务。
它不像传统AI应用那样“调用接口”,而是像你电脑里的VS Code或Typora一样,启动即用,关机即停。你输入的文字、上传的图片、发出的语音,全部在你自己的硬盘和内存里完成推理与响应。没有中间商,没有日志云,没有“我们可能使用您的数据改进服务”的模糊条款——只有你、你的设备,和一个安静工作的AI。
1. 为什么ClawdBot值得你花30分钟部署一次
1.1 它不是“又一个Telegram机器人”,而是一个可扩展的本地AI中枢
很多人第一眼看到ClawdBot,会联想到MoltBot——那个5分钟就能跑起来的Telegram多模态翻译机器人。确实,两者都强调离线、轻量、零配置,但定位完全不同:
- MoltBot 是垂直场景的“瑞士军刀”:专为Telegram群聊设计,语音转写、OCR识别、汇率查询全打包,开箱即用,适合想立刻解决沟通障碍的用户;
- ClawdBot 是通用能力的“操作系统”:它不绑定任何渠道,Telegram只是它支持的其中一个通道;它的核心是vLLM驱动的本地大模型推理引擎,所有对话、规划、工具调用、多步任务都在本地闭环完成。
你可以把它理解成:MoltBot是预装好微信+翻译+天气App的定制手机;ClawdBot则是给你一台刷好Linux、配好GPU驱动、连好模型仓库的开发板——你决定装什么、怎么用、连谁说话。
1.2 真正的离线,不是“假装离线”
很多所谓“本地部署”方案,实际只是把前端搬到本地,后端仍悄悄调用OpenAI或阿里千问的API。ClawdBot的离线是硬核的:
- 模型加载:通过vLLM在本地GPU/CPU加载Qwen3-4B-Instruct等量化模型,无需联网下载权重(镜像已内置);
- 推理执行:所有token生成、思维链展开、函数调用判断,均在
localhost:8000/v1完成,无外部HTTP请求; - 多模态处理:图片OCR走PaddleOCR本地模型,语音转写用Whisper tiny本地推理,不调用任何云ASR服务;
- 网络隔离:默认监听
127.0.0.1,不暴露公网端口;即使你手动开放,所有通信也只发生在你设备内部进程间(如Web UI ↔ Gateway ↔ vLLM); - 数据不留存:默认不写数据库、不记日志、不缓存历史——你关掉浏览器,对话就真的消失了。
这不是功能阉割后的妥协方案,而是设计哲学的彻底转向:AI助手的第一责任,是尊重主人对数据的绝对主权。
1.3 部署门槛比装个Docker还低
别被“vLLM”“Qwen3”这些词吓住。ClawdBot的部署流程,本质上就是三步:
docker pull clawdbot/clawdbot:latestdocker run -p 7860:7860 -p 8000:8000 -v ~/.clawdbot:/app clawdbot/clawdbot- 打开
http://localhost:7860,按提示点几下鼠标
没有Python环境冲突,不用编译CUDA,不需手动下载GB级模型文件。镜像内已集成:
- vLLM 0.6.3(含CUDA 12.1支持)
- Qwen3-4B-Instruct-2507 4-bit量化版(仅1.8GB显存占用)
- PaddleOCR v2.7 轻量检测+识别模型
- Whisper tiny(CPU模式下0.5秒内完成10秒语音转写)
树莓派4(4GB内存)、MacBook Air M1、甚至老款GTX1060笔记本,都能流畅运行。它不追求“跑满A100”,只专注“在你手边安静工作”。
2. 从命令行到Web UI:一次完整的本地化部署实录
2.1 启动容器:一条命令,两个服务同时就绪
ClawdBot镜像采用多进程架构,一个容器内并行运行三个核心组件:
| 组件 | 端口 | 作用 | 是否离线 |
|---|---|---|---|
| Web UI(Gradio) | 7860 | 可视化控制台,模型管理、对话测试、配置编辑 | 全本地 |
| Gateway(HTTP API) | 18780 | 统一入口,路由请求到各子系统 | 全本地 |
| vLLM Engine | 8000 | 模型推理服务,OpenAI兼容API | 全本地 |
执行以下命令即可启动(建议加--restart=unless-stopped保证开机自启):
docker run -d \ --name clawdbot \ -p 7860:7860 \ -p 8000:8000 \ -p 18780:18780 \ -v ~/.clawdbot:/app \ -v /tmp/clawdbot-models:/models \ --gpus all \ --shm-size=2g \ --ulimit memlock=-1 \ --ulimit stack=67108864 \ clawdbot/clawdbot:latest 提示:如果你没有NVIDIA GPU,去掉--gpus all,vLLM会自动降级到CPU模式(速度变慢但完全可用);/tmp/clawdbot-models挂载点用于后续替换模型,避免重做镜像。
2.2 解锁Web UI:三步绕过设备认证墙
首次访问 http://localhost:7860 时,页面会显示“未授权设备”,这是因为ClawdBot默认启用设备白名单机制,防止局域网内他人误操作。解锁只需三步命令(全部在容器内执行):
# 进入容器 docker exec -it clawdbot bash # 查看待批准设备列表(你会看到一行pending状态) clawdbot devices list # 批准第一个设备(request ID通常为数字,如12345) clawdbot devices approve 12345 # 退出容器 exit 此时刷新网页,UI即刻可用。若仍无法访问,直接运行:
docker exec clawdbot clawdbot dashboard 输出中会给出带token的安全链接,例如:http://localhost:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762
复制该链接到浏览器——这是ClawdBot为你生成的一次性会话凭证,无需登录账号,不存cookie,关闭标签页即失效。
2.3 模型热切换:不重启,不中断,5秒换芯
ClawdBot最实用的设计之一,是模型配置与运行时解耦。你不需要停服务、删容器、改Docker命令,就能把Qwen3换成Phi-3、Llama3-8B,甚至接入本地Ollama模型。
方法一:修改JSON配置(推荐,适合批量管理)
编辑挂载目录下的 ~/.clawdbot/clawdbot.json,重点调整两处:
{ "agents": { "defaults": { "model": { "primary": "vllm/Phi-3-mini-4k-instruct" // ← 改这里:模型ID } } }, "models": { "providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "models": [ { "id": "Phi-3-mini-4k-instruct", // ← 改这里:必须与上面ID一致 "name": "Phi-3-mini-4k-instruct" } ] } } } } 保存后,在UI右上角点击 ⟳ Reload Config,ClawdBot会自动重载配置并连接新模型。
方法二:UI图形化操作(适合尝鲜)
进入Web UI → 左侧菜单 Config → Models → Providers → 点击 vllm 编辑图标 → 在Models列表中添加新模型ID → 保存 → Reload Config。
验证是否生效:终端执行docker exec clawdbot clawdbot models list,应看到新模型出现在列表中,且状态为Local Auth: yes。
3. 真实可用的本地AI能力:不只是“能跑”,而是“好用”
3.1 对话体验:快、稳、有记忆,不丢上下文
ClawdBot的vLLM后端针对长上下文做了深度优化。以Qwen3-4B为例:
- 上下文窗口:原生支持195K tokens(约15万汉字),远超多数本地模型的32K限制;
- 响应速度:在RTX 4090上,首token延迟<300ms,后续token生成达120 tokens/s;
- 会话保持:Web UI中开启“Persistent Chat”,每次对话自动继承前序历史,无需重复交代背景。
实测场景:
你上传一张电路板照片,问:“这个USB-C接口旁边两个小元件是什么?能告诉我型号和替代方案吗?”
→ PaddleOCR先识别丝印文字(如“C123 10uF”“R456 10K”)
→ 模型结合图像描述与OCR结果,精准回答:“左上角是10μF钽电容(型号TPS-E106K010R0200),右下角是10KΩ贴片电阻(RC0402JR-0710KL);替代建议:电容可用AVX TPS系列,电阻可用Yageo RC0402系列。”
整个过程在本地完成,无图片上传、无文本外泄、无第三方API调用。
3.2 多模态能力:语音、图片、文档,全链路离线处理
ClawdBot将MoltBot的多模态能力吸收升级,成为自身基础能力:
| 输入类型 | 本地处理流程 | 耗时(RTX 4090) | 输出示例 |
|---|---|---|---|
| 语音文件(MP3/WAV) | Whisper tiny → 文本 → 模型理解 → 生成回答 | <0.8秒 | “你刚说:‘帮我查下北京今天PM2.5’ → 当前值32,空气质量优” |
| 图片(JPG/PNG) | PaddleOCR检测+识别 → 文本提取 → 模型解析 | <1.2秒 | “图中表格第3行第2列是‘¥2,499.00’,对应商品‘无线降噪耳机’” |
| PDF文档(≤5页) | PyMuPDF提取文本 → 分块送入模型 | <3秒 | “文档摘要:本文介绍CLIP模型原理,核心是图文对比学习…” |
所有中间产物(OCR结果、语音文本、PDF分块)均驻留内存,不写磁盘,任务结束即释放。
3.3 工具调用:查天气、算汇率、搜维基,不联网也能“联网”
ClawdBot内置轻量工具代理层,关键设计是:工具调用请求由本地Gateway统一转发,但返回结果经模型二次加工后才呈现给用户。这意味着:
- 你问
/weather 上海,Gateway调用本地缓存或预置API(如离线天气DB),返回原始JSON; - 模型读取JSON,生成自然语言回复:“上海今日晴,气温18~25℃,东南风3级,紫外线中等”;
- 整个过程对外表现为“AI自己知道天气”,实际不暴露原始API密钥,也不依赖实时网络。
同理,/fx 100 USD to CNY 调用本地汇率表(每日凌晨自动更新),/wiki Transformer 返回本地Wikipedia快照片段。你获得的是“联网效果”,付出的却是“离线代价”——零延迟、零费用、零隐私泄露。
4. 安全边界与可控性:你的数据,你说了算
4.1 四层防护,堵死所有数据出口
ClawdBot将隐私保护嵌入架构每一层:
| 防护层 | 实现方式 | 效果 |
|---|---|---|
| 网络层 | 默认绑定 127.0.0.1,禁用0.0.0.0监听 | 外部设备无法访问任何端口 |
| 协议层 | Gateway与vLLM间走Unix Socket(/tmp/vllm.sock),非HTTP | 避免HTTP代理窥探请求体 |
| 存储层 | 所有会话历史、上传文件、OCR结果默认存于内存,可配--no-persist彻底禁用磁盘写入 | 断电即清空,无残留痕迹 |
| 审计层 | 内置clawdbot audit log命令,可导出完整操作时间线(含命令、参数、执行结果),不含输入内容 | 你能随时确认“它到底干了什么” |
没有“后台静默上传”,没有“匿名遥测”,没有“可选的数据共享”。它的日志只记录“谁在什么时候执行了什么命令”,从不记录“命令里说了什么”。
4.2 企业级可控:从单机到集群的平滑演进
ClawdBot不是玩具项目,其架构天然支持生产环境扩展:
- 横向扩展:通过
docker-compose定义多个clawdbot-worker实例,共用一个Redis队列,实现负载均衡; - 模型隔离:不同部门使用不同模型(如法务用法律专用微调版,研发用代码增强版),通过Provider配置隔离;
- 权限管控:Web UI支持RBAC角色系统(Admin/User/Guest),Guest只能使用预设Agent,不能修改模型或配置;
- 审计合规:所有操作日志可对接ELK,满足等保2.0日志留存要求。
你今天在笔记本上跑的ClawdBot,明天就能无缝迁移到Kubernetes集群,服务整个研发团队——而所有数据,始终在你的防火墙之内。
5. 总结:当AI回归“个人工具”本质
ClawdBot的价值,不在于它用了多新的模型、多炫的UI,而在于它重新定义了人与AI的关系:
AI不该是需要你反复授权、时刻提防的“云上陌生人”,而应是你书桌旁那盏可调光、可移动、断电即停的台灯——安静、可靠、完全听你指挥。
它用最务实的方式回答了一个问题:如果抛开所有商业包装和平台依赖,一个真正属于你的AI助手,应该长什么样?
答案是:
- 它启动时不需要手机号;
- 它思考时不经过第三国服务器;
- 它犯错时你不必向客服申诉;
- 它升级时你只需
docker pull,而不是等待厂商排期。
这不是技术的退让,而是主权的回归。当你第一次在本地浏览器里,对着ClawdBot说出“帮我写一封辞职信”,而确认没有任何数据离开你的设备时——那种掌控感,才是AI时代最稀缺的体验。
现在,就打开终端,输入那条docker run命令吧。5分钟后,你的AI,只属于你。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。