ClawdBot 本地离线部署指南:Docker 一键启动与 Web UI 配置
你是否担心 AI 助手把聊天记录传到千里之外的服务器?是否厌倦了每次提问都要联网、等响应、看隐私协议?ClawdBot 不是另一个云端 API 包装器——它是一台真正属于你的 AI 终端,从模型加载、请求处理到界面交互,全程运行在本地设备上,不发一包数据出网,不依赖任何外部服务。
它不像传统 AI 应用那样'调用接口',而是像你电脑里的 VS Code 或 Typora 一样,启动即用,关机即停。你输入的文字、上传的图片、发出的语音,全部在你自己的硬盘和内存里完成推理与响应。没有中间商,没有日志云,没有'我们可能使用您的数据改进服务'的模糊条款——只有你、你的设备,和一个安静工作的 AI。
1. 为什么 ClawdBot 值得你花 30 分钟部署一次
1.1 它不是'又一个 Telegram 机器人',而是一个可扩展的本地 AI 中枢
很多人第一眼看到 ClawdBot,会联想到 MoltBot——那个 5 分钟就能跑起来的 Telegram 多模态翻译机器人。确实,两者都强调离线、轻量、零配置,但定位完全不同:
- MoltBot 是垂直场景的'瑞士军刀':专为 Telegram 群聊设计,语音转写、OCR 识别、汇率查询全打包,开箱即用,适合想立刻解决沟通障碍的用户;
- ClawdBot 是通用能力的'操作系统':它不绑定任何渠道,Telegram 只是它支持的其中一个通道;它的核心是 vLLM 驱动的本地大模型推理引擎,所有对话、规划、工具调用、多步任务都在本地闭环完成。
你可以把它理解成:MoltBot 是预装好微信 + 翻译 + 天气 App 的定制手机;ClawdBot 则是给你一台刷好 Linux、配好 GPU 驱动、连好模型仓库的开发板——你决定装什么、怎么用、连谁说话。
1.2 真正的离线,不是'假装离线'
很多所谓'本地部署'方案,实际只是把前端搬到本地,后端仍悄悄调用 OpenAI 或阿里千问的 API。ClawdBot 的离线是硬核的:
- 模型加载:通过 vLLM 在本地 GPU/CPU 加载 Qwen3-4B-Instruct 等量化模型,无需联网下载权重(镜像已内置);
- 推理执行:所有 token 生成、思维链展开、函数调用判断,均在
localhost:8000/v1完成,无外部 HTTP 请求; - 多模态处理:图片 OCR 走 PaddleOCR 本地模型,语音转写用 Whisper tiny 本地推理,不调用任何云 ASR 服务;
- 网络隔离:默认监听
127.0.0.1,不暴露公网端口;即使你手动开放,所有通信也只发生在你设备内部进程间(如 Web UI ↔ Gateway ↔ vLLM); - 数据不留存:默认不写数据库、不记日志、不缓存历史——你关掉浏览器,对话就真的消失了。
这不是功能阉割后的妥协方案,而是设计哲学的彻底转向:AI 助手的第一责任,是尊重主人对数据的绝对主权。
1.3 部署门槛比装个 Docker 还低
别被

