ClawdBot镜像免配置:docker-compose一键启动多语言机器人教程

ClawdBot镜像免配置:docker-compose一键启动多语言机器人教程

你是否试过在本地搭一个真正能用的AI助手,结果卡在环境配置、模型下载、API密钥、端口冲突上,折腾半天连首页都打不开?ClawdBot不是又一个需要你手动编译、改配置、调依赖的“半成品项目”。它是一套开箱即用的个人AI工作流系统——后端由vLLM驱动,前端带可视化控制台,所有服务打包进一个轻量镜像,一条docker-compose up -d命令,5分钟内就能拥有自己的多语言智能机器人

更关键的是,它不只做聊天。当你把ClawdBot和MoltBot组合起来,就诞生了一个真正落地的Telegram全能翻译官:语音发过去自动转文字再翻译,截图发进来立刻OCR识别+多语种输出,群聊里@一下就能实时互译,顺手还能查天气、换汇率、搜维基。整个流程全部离线运行、零额外费用、不上传任何数据——你的消息永远留在你自己的设备里。

这不是概念演示,而是已经跑在树莓派4、MacBook M1、甚至老旧笔记本上的真实方案。本文不讲原理、不堆参数,只带你一步步从空白系统开始,用最自然的方式完成部署、验证、调优和日常使用。所有操作都在终端里敲几行命令,所有配置都有图形界面可点选,所有问题都有明确解法。现在,我们就开始。

1. 为什么是ClawdBot + MoltBot?一次部署解决三类需求

很多人以为“本地AI助手”就是换个聊天窗口。但真实场景中,你需要的从来不是“能说话”,而是“能办事”。ClawdBot和MoltBot的组合,恰好覆盖了个人用户最常遇到的三类高频需求:对话理解、多模态输入、跨平台分发。它们不是两个独立工具,而是一套协同工作的系统。

1.1 ClawdBot:你的本地AI大脑

ClawdBot本质是一个AI网关(AI Gateway),它不自己训练模型,而是统一调度、编排、管理各种后端模型服务。你可以把它想象成一个“AI交通指挥中心”:

  • 所有请求先到ClawdBot;
  • 它根据任务类型(文本生成、语音转写、OCR识别)分发给对应引擎;
  • 再把结果整合、格式化、返回给前端或下游应用(比如Telegram机器人)。

它默认集成vLLM作为大模型推理后端,这意味着:
速度快:Qwen3-4B模型在普通CPU上也能跑出接近GPU的吞吐;
显存省:vLLM的PagedAttention技术让4GB显存也能稳跑7B级模型;
接口标准:完全兼容OpenAI API格式,你现有的提示词、代码、工具链全都能直接复用。

更重要的是,ClawdBot自带Web控制台(Dashboard),你不需要记命令、不用改JSON、不碰YAML——打开浏览器,点点鼠标就能切换模型、调整参数、查看日志、管理设备。

1.2 MoltBot:你的Telegram翻译前线

如果说ClawdBot是大脑,MoltBot就是伸向Telegram的“手和嘴”。它专为Telegram设计,但能力远超普通翻译机器人:

能力实现方式是否离线
实时文字翻译LibreTranslate(本地部署)+ Google Translate(可选回退)LibreTranslate完全离线
语音转译Whisper tiny 模型本地转写 → 翻译全链路离线
图片OCR翻译PaddleOCR轻量模型识别 → 翻译不依赖云API
快捷查询内置天气、汇率、维基API客户端❌ 需联网,但无敏感数据上传

MoltBot的“零配置”不是营销话术:它的Docker镜像已预装Whisper tiny、PaddleOCR、LibreTranslate服务,所有依赖打包进300MB镜像。你只需提供Telegram Bot Token,docker run moltbot之后,机器人立刻上线——连Nginx反代、HTTPS证书、Webhook配置都帮你绕过去了。

1.3 二者如何协同工作?

ClawdBot和MoltBot通过标准HTTP API通信,架构极简:

Telegram用户 → MoltBot(接收消息) ↓ MoltBot调用ClawdBot API(/v1/chat/completions) ↓ ClawdBot调度vLLM/Qwen3-4B → 生成响应 ↓ ClawdBot返回结果 → MoltBot格式化 → 发回Telegram 

这意味着:
🔹 你升级ClawdBot里的模型(比如换成Qwen2.5-7B),MoltBot自动获得更强理解力;
🔹 你在ClawdBot控制台开启“阅后即焚”,所有经MoltBot处理的消息都不落盘;
🔹 你想加个新功能(比如PDF摘要),只需在ClawdBot里注册一个新Agent,MoltBot无需改动。

这不是两个工具拼凑,而是一体化工作流的前后端分离设计。

2. 一键部署:从空目录到可访问Dashboard

整个过程只需要三个终端命令,全程无需sudo、不改系统配置、不装Python包。我们以Linux/macOS为例(Windows用户请用WSL2)。

2.1 准备工作:确认基础环境

确保你已安装:

  • Docker ≥ 24.0
  • docker-compose ≥ 2.20
  • 4GB以上可用内存(推荐8GB)

验证命令:

docker --version && docker-compose --version 

如果未安装,请先执行(Ubuntu/Debian):

curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER newgrp docker # 刷新组权限,避免后续sudo 
注意:ClawdBot对硬件要求极低。我们在树莓派4(4GB RAM)实测:同时运行vLLM(Qwen3-4B)、LibreTranslate、Whisper tiny、PaddleOCR,15人并发翻译无延迟。如果你的设备能跑Docker,它就能跑ClawdBot。

2.2 下载并启动docker-compose.yml

创建空目录,进入后执行:

mkdir clawdbot-moltbot && cd clawdbot-moltbot curl -O https://raw.githubusercontent.com/clawd-bot/clawdbot/main/docker-compose.yml 

这个docker-compose.yml已预配置好所有服务:

  • clawdbot-gateway: 主网关,含Dashboard UI
  • vllm-engine: vLLM推理服务,加载Qwen3-4B模型
  • libretranslate: 本地翻译引擎
  • whisper: 语音转写服务
  • paddleocr: 图片文字识别服务

启动全部服务:

docker-compose up -d 

你会看到类似输出:

[+] Running 5/5 ⠿ Network clawdbot-moltbot_default Created ⠿ Container clawdbot-vllm-engine-1 Started ⠿ Container clawdbot-libretranslate-1 Started ⠿ Container clawdbot-whisper-1 Started ⠿ Container clawdbot-paddleocr-1 Started 

等待约90秒(模型首次加载需时间),检查服务状态:

docker-compose ps 

所有状态应为healthy

2.3 获取Dashboard访问地址

ClawdBot Dashboard默认监听localhost:7860,但首次启动需设备授权。执行:

docker-compose exec clawdbot-gateway clawdbot devices list 

输出类似:

ID Status Created Last Seen abc123 pending 2026-01-24 10:22:15 - 

复制ID(如abc123),批准设备:

docker-compose exec clawdbot-gateway clawdbot devices approve abc123 

批准后,再次执行:

docker-compose exec clawdbot-gateway clawdbot dashboard 

你会看到类似输出:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 

将URL粘贴到浏览器,即可打开ClawdBot控制台。如果本地无法访问(常见于远程服务器),按提示执行SSH端口转发:

ssh -N -L 7860:127.0.0.1:7860 user@your-server-ip 

然后在本机浏览器打开http://localhost:7860

小技巧:Dashboard右上角有“Token”按钮,可随时生成新token,避免链接泄露。

3. 模型配置实战:不改代码,三步切换更强模型

ClawdBot默认加载Qwen3-4B-Instruct,适合大多数场景。但如果你需要更强逻辑、更长上下文或特定领域能力,切换模型只需三步——全部在UI中完成,无需编辑JSON。

3.1 进入模型配置界面

打开Dashboard → 左侧菜单点击 ConfigModelsProviders

你会看到当前配置的vllm提供方,以及已注册的模型列表。

3.2 添加新模型(以Qwen2.5-7B为例)

点击右上角 + Add Model,填写:

  • Provider: vllm(保持默认)
  • Model ID: Qwen2.5-7B-Instruct
  • Name: Qwen2.5-7B-Instruct
  • Base URL: http://vllm-engine:8000/v1(注意:这是容器内地址,非localhost)
  • API Key: sk-local(ClawdBot与vLLM约定的固定密钥)

点击 Save

为什么Base URL写vllm-engine:8000?因为这是Docker Compose服务名,在容器网络中可直接解析。写localhost会失败。

3.3 设为默认模型并验证

回到 ConfigAgentsDefaults,找到model.primary字段,将值改为:

vllm/Qwen2.5-7B-Instruct 

保存后,终端执行验证命令:

docker-compose exec clawdbot-gateway clawdbot models list 

输出应包含新模型:

Model Input Ctx Local Auth Tags vllm/Qwen2.5-7B-Instruct text 32k yes yes default vllm/Qwen3-4B-Instruct-2507 text 195k yes yes 

此时所有新会话将自动使用Qwen2.5-7B。你也可以在单次请求中指定模型,例如在Dashboard的Chat界面,输入:

/model vllm/Qwen2.5-7B-Instruct 你好,用中文总结这篇论文 
提示:Qwen2.5-7B需约6GB显存。若设备显存不足,可改用Qwen2.5-1.5B-Instruct(2GB显存足够),速度更快,适合日常对话。

4. 接入Telegram:让MoltBot成为你的翻译助手

MoltBot是ClawdBot的能力出口。部署完ClawdBot后,MoltBot只需一行命令即可接入Telegram,无需修改ClawdBot配置。

4.1 获取Telegram Bot Token

  1. 在Telegram中搜索@BotFather
  2. 发送 /newbot
  3. 按提示输入机器人名称(如MyClawdTranslator)和用户名(如my_clawd_translator_bot
  4. BotFather会返回Token,形如:1234567890:ABCdefGhIJKlmNoPQRstUvwXYZaBcDeFgHiJkLm

4.2 启动MoltBot并关联ClawdBot

同一目录下,执行:

docker run -d \ --name moltbot \ --network clawdbot-moltbot_default \ -e TELEGRAM_BOT_TOKEN="1234567890:ABCdefGhIJKlmNoPQRstUvwXYZaBcDeFgHiJkLm" \ -e CLAWDBOT_API_URL="http://clawdbot-gateway:7860" \ -e CLAWDBOT_API_KEY="sk-local" \ -p 8080:8080 \ moltbot/moltbot 

关键参数说明:

  • --network clawdbot-moltbot_default: 复用ClawdBot的Docker网络,使MoltBot能直接访问clawdbot-gateway服务
  • CLAWDBOT_API_URL: 指向ClawdBot网关(容器内地址)
  • CLAWDBOT_API_KEY: 与ClawdBot配置一致的密钥

4.3 测试与使用

  1. 打开Telegram,搜索你创建的机器人用户名(如@my_clawd_translator_bot
  2. 点击Start
  3. 发送任意消息,例如:
    Hello, how's the weather in Beijing?
    机器人将调用ClawdBot,用Qwen模型理解意图,再调用天气插件返回结果。

群聊中,只需@my_clawd_translator_bot Hello,即可触发翻译。发送语音或图片,同样自动处理。

故障排查:如果机器人无响应,检查MoltBot日志:
docker logs moltbot | tail -20
常见错误是网络不通(确认--network参数)或Token错误(重新获取)。

5. 日常维护与实用技巧

部署只是开始。让ClawdBot长期稳定运行,需要几个简单但关键的习惯。

5.1 日志查看:快速定位问题

ClawdBot所有服务日志集中输出到clawdbot-gateway容器:

# 查看整体日志流 docker-compose logs -f clawdbot-gateway # 查看最近100行(不实时) docker-compose logs --tail 100 clawdbot-gateway # 只看错误(关键词error/fail) docker-compose logs clawdbot-gateway 2>&1 | grep -i "error\|fail\|exception" 

MoltBot日志单独查看:

docker logs moltbot 

5.2 模型热更新:不重启服务更换模型

ClawdBot支持运行时重载模型配置。当你在UI中修改模型设置并保存后,无需重启容器。ClawdBot会自动检测/app/clawdbot.json变更,并在30秒内生效。

验证是否生效:在Dashboard Chat界面发送/status,返回的模型信息会实时更新。

5.3 数据隐私控制:真正“我的数据,我做主”

ClawdBot默认不存储任何用户消息。但你仍可进一步加固:

  • 启用阅后即焚:Dashboard → Config → Agents → Defaults → ephemeral设为true
  • 禁用历史记录:同页面关闭history.enabled

代理出口流量:在clawdbot.json中添加代理配置(适用于国内网络):

"proxy": { "http": "http://127.0.0.1:7890", "https": "http://127.0.0.1:7890" } 

所有配置修改后,保存并等待自动重载即可。

5.4 性能优化小贴士

  • 显存不足?docker-compose.yml中降低vLLM的--max-num-seqs(默认256),改为128或64
  • 响应慢? 检查clawdbot-gateway容器CPU占用:docker stats clawdbot-moltbot-clawdbot-gateway-1,若持续>90%,考虑增加CPU配额
  • 想省空间? 删除旧镜像:docker image prune -f(不影响正在运行的容器)

6. 总结:你已拥有了什么?

回看这5分钟的部署过程,你实际获得的不是一个“能跑的Demo”,而是一套可生产、可扩展、可掌控的个人AI基础设施

一个本地AI大脑:ClawdBot网关,统一调度vLLM、OCR、语音等引擎,所有交互走标准API;
一个跨平台出口:MoltBot Telegram机器人,把AI能力无缝接入你每天使用的通讯工具;
一套零学习成本的操作方式:所有配置在网页点选,所有命令清晰可复制,所有问题有明确路径;
一份真正的数据主权:消息不上传、模型不调用第三方API、配置完全自主可控。

这不是“玩具项目”,而是已经支撑起真实工作流的工具:有人用它自动翻译海外技术文档,有人用它为家人制作双语家庭相册,还有人把它嵌入智能家居中,实现语音指令的本地化理解。

下一步,你可以:
→ 在ClawdBot中添加PDF解析Agent,让机器人读懂你的论文;
→ 用MoltBot的/wiki命令快速检索技术概念;
→ 把ClawdBot API接入Notion或Obsidian,构建个人知识库;
→ 或者,就让它安静地待在后台,当你需要时,一句“帮我写封英文邮件”,它立刻出现。

技术的价值,从来不在参数多高,而在是否真正为你所用。现在,它已经在你机器里运行了。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

GLM-4v-9b实战指南:用llama.cpp GGUF格式在消费级GPU部署多模态模型

GLM-4v-9b实战指南:用llama.cpp GGUF格式在消费级GPU部署多模态模型 1. 为什么你需要关注GLM-4v-9b 你有没有遇到过这样的场景:一张密密麻麻的财务报表截图发到工作群,大家却没人愿意花十分钟手动抄录数据;或者客户发来一张手机拍的电路板照片,问“这个元件型号是什么”,你只能回个尴尬的微笑;又或者团队正在做竞品分析,需要从几十份PDF产品手册里快速提取图表信息——这些不是小问题,而是每天真实消耗工程师、运营、产品经理大量时间的“视觉理解黑洞”。 过去,这类任务要么靠人工硬啃,要么得调用API付费接口,响应慢、成本高、隐私难保障。直到2024年,智谱AI开源了glm-4v-9b——一个真正能在你自己的RTX 4090上跑起来的90亿参数多模态模型。它不只是一张“能看图说话”的新名片,而是把高分辨率图像理解能力,塞进了一张消费级显卡的显存里。 重点来了:它支持原生1120×1120输入,这意味着你不用再把一张A4扫描件缩成模糊小图上传;它对中文表格、小字号OCR、技术类图表的理解,在公开评测中直接超过了GPT-4-turbo和Claude 3 Opus;

使用 VS Code 与 GitHub Copilot 高效 Vibe Coding 指南

欢迎大家关注「几米宋」的微信公众号,公众号聚焦于云原生、AI、服务网格、工具教程、技术观察以及日常感悟等内容,更多精彩内容请访问个人网站 jimmysong.io。 📄 文章摘要 掌握 VS Code 与 GitHub Copilot 的高效开发技巧,提升你的编程体验与效率,开启愉快的 vibe coding 之旅。 🔗 在 jimmysong.io 上 阅读原文 体验更佳。 最近一段时间笔者试用了众多的 vibe coding(氛围编程)工具,但是试用了一圈后,最终还是选择了 VS Code 与 GitHub Copilot 的组合。不为别的,就是因为最得心应手、性价比最高、最有可扩展性。本文将从环境配置、工作空间和插件、界面布局、

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

项目简介 今天偶然发现了个堪称“赛博活佛”的AI网站,名叫Vheer。它的作风相当大方,里面绝大部分功能都直接免费敞开用,就问你服不服。 文生图、图生视频、智能修图这些主流AI功能一个不落。点开就能用。而且非常的大气,比如抠图,别的网站按张收费,它直接让你一口气传20张照片自动处理,完全免费,甚至你去花时间不需要注册。 它几乎移除了所有上手障碍。网站首页清晰地排列着各种功能,没有晦涩的术语。你想把文字变成图片,或者让静态照片动起来,点开对应的按钮,输入你的想法,结果很快就能呈现在你面前。整个过程简单得就像在用一款普通的手机APP。 食用指南 访问地址 传送地址 官网的免费会员上面写的几个非常吸引人的地方,第一没有任何水印,第二生成图片视频这些是没有任何数量上的限制,只有高级别的模型和高速通道不能使用(但是实测下来,生成的速度也是相当不错)。 网站也提供了一些订阅模式,可以使用更高级的模型,但是这些高级模型需要消耗算力点。根据自己的需要看是否订阅。 由于功能实在太多了,强烈建议亲手测试一下 操作与体验——文生图 官网光一个文生图的功能就折腾出来了40多个功能,除了

从GAN到ChatGPT:AIGC技术演进与实战应用指南

快速体验 在开始今天关于 从GAN到ChatGPT:AIGC技术演进与实战应用指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 从GAN到ChatGPT:AIGC技术演进与实战应用指南 技术背景:关键模型演进时间轴 2014年 - GAN横空出世 生成对抗网络(GAN)通过生成器与判别器的对抗训练,首次实现了高质量图像生成。核心突破在于: