ClawdBot保姆级部署指南:零配置运行Telegram全能翻译机器人

ClawdBot保姆级部署指南:零配置运行Telegram全能翻译机器人

你是否试过在 Telegram 群里发一条中文消息,想让外国朋友立刻看懂,却要先复制、切到翻译 App、再粘贴、再发回群?又或者收到一张模糊的菜单图,想快速知道价格和菜品,却得手动打字识别?更别说语音留言听不清、汇率临时查不到、天气预报找不到入口……这些日常小痛点,本不该消耗你的时间。

ClawdBot 不是另一个“概念型”AI项目。它是一个真正能装进你本地设备、开箱即用、不依赖云服务、不上传隐私数据的个人 AI 助手。而它的核心能力,正由 vLLM 高效驱动——这意味着你在树莓派上也能跑起 4B 级别大模型,响应快、显存省、推理稳。它不追求参数堆砌,只专注一件事:把复杂技术藏在背后,把简单好用交到你手上。

但今天这篇文章,我们不聊架构设计,也不讲模型微调。我们要一起完成一件非常实在的事:5 分钟内,在你自己的机器上,跑起一个真正能翻译语音、识别图片、查天气、换汇率、还能自动响应群聊的 Telegram 全能翻译机器人。全程无需改一行代码,不用配环境变量,连 Docker 镜像都已打包好——你只需要一条命令,和一点耐心读完这篇指南。


1. 为什么是 ClawdBot + MoltBot?不是别的方案?

在动手前,先花两分钟理清一个关键问题:市面上已有不少 Telegram 翻译 Bot,为什么还要自己部署一套?答案就藏在三个词里:多模态、零配置、真离线

1.1 它解决的不是“能不能翻”,而是“怎么翻得自然又全面”

很多 Bot 只做文字翻译,且严重依赖 Google 或 DeepL 的在线 API。一旦网络波动、API 限频、或地区屏蔽,整个功能就瘫痪。而 ClawdBot 背后的 MoltBot,从设计第一天起就拒绝“裸奔上云”:

  • 双引擎 fallback:默认走 LibreTranslate(开源、可自建),自动降级到 Google Translate(需配置 token);翻译失败不报错,只默默换路。
  • 语音不靠上传:收到语音消息后,Whisper tiny 模型在本地实时转写,0.8 秒内完成“语音 → 文字 → 翻译”全链路,全程不触网。
  • 图片不传云端:PaddleOCR 轻量版直接在容器内识别图中文字,支持中/英/日/韩等 20+ 语言混排,识别完立刻翻译,无第三方 OCR 接口调用。
  • 不只是翻译/weather 上海 返回实时温度与空气质量;/fx 100 USD to CNY 显示最新汇率;/wiki quantum computing 直接返回维基摘要——所有这些,都在同一个 Bot 里完成,无需切换多个工具。

1.2 “零配置”不是宣传话术,是真实体验

所谓零配置,是指你不需要:

  • ❌ 手动安装 Python 环境、编译 Whisper、下载 OCR 模型权重;
  • ❌ 修改 5 个配置文件、填 12 个 API Key、调试 WebSocket 连接超时;
  • ❌ 在 Telegram 开发者后台反复验证域名、设置 Webhook、处理 HTTPS 证书。

MoltBot 提供的是一个完整封装的 docker-compose 包:300 MB 镜像内已预置:

  • vLLM 推理服务(监听 http://localhost:8000/v1
  • Whisper tiny(CPU 友好,树莓派 4 实测 1.2s/条)
  • PaddleOCR ch_ppocr_server_v2.0(支持竖排、模糊、低光照场景)
  • Telegram Bot SDK + 自动 polling 模式适配(国内网络友好)

你唯一要做的,就是复制粘贴一条命令,然后等待镜像拉取完成。

1.3 隐私不是选项,是默认行为

ClawdBot 默认开启“阅后即焚”模式:每条消息处理完即从内存清除,不落盘、不记录会话历史、不上传任何原始内容。你可以通过配置一键启用 SOCKS5 代理,把整个服务部署在国内服务器上,Telegram 流量经代理出海,而模型推理、OCR、语音转写全部在本地闭环完成。

这不仅是技术选择,更是使用逻辑的根本转变——AI 应该为你服务,而不是让你为 AI 提供数据。


2. 5 分钟部署实操:从空白系统到 Telegram Bot 上线

现在,让我们真正开始。以下步骤已在 Ubuntu 22.04、Debian 12、macOS Sonoma(Intel/M1)、树莓派 OS(64-bit)实测通过。全程无需 root 权限(除 Docker 安装外),不修改系统全局配置。

2.1 前置准备:确保基础环境就绪

请在终端中依次执行以下检查(若已安装可跳过):

# 检查 Docker 是否安装(推荐 24.0+) docker --version # 若未安装,Ubuntu/Debian 执行: curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER # 退出终端重登,或执行:newgrp docker # 检查 docker-compose(v2.20+) docker-compose --version # 若未安装,执行: sudo apt install docker-compose-plugin # Ubuntu/Debian # 或 macOS:brew install docker-compose 
小提示:如果你用的是 Windows,建议使用 WSL2(Ubuntu 22.04),而非 Docker Desktop。后者在资源调度和端口映射上偶有异常,而 WSL2 下体验完全一致。

2.2 一键拉起服务:3 行命令搞定

创建一个空目录,进入后执行:

# 1. 下载官方 docker-compose.yml(含所有服务定义) curl -O https://raw.githubusercontent.com/moltbot/moltbot/main/docker-compose.yml # 2. 启动全部服务(含 vLLM、ClawdBot、Telegram Bot) docker-compose up -d # 3. 查看启动日志,确认无 ERROR docker-compose logs -f clawdbot | grep -E "(started|ready|listening)" 

你会看到类似输出:

clawdbot-1 | 🦞 Clawdbot 2026.1.24-3 — Gateway listening on http://0.0.0.0:18780 clawdbot-1 | 🦞 ... UI dashboard ready at http://localhost:7860 vllm-1 | INFO 01-24 10:22:33 api_server.py:192 -- Started server process 1 

此时,vLLM 已加载 Qwen3-4B-Instruct 模型,ClawdBot 主进程已就绪,Telegram Bot 正在轮询新消息——但你还不能直接使用它。因为 Telegram 要求每个 Bot 必须先完成“设备授权”,这是安全机制,无法跳过。

2.3 设备授权:3 步解锁 Telegram 访问权限

ClawdBot 采用“设备配对”机制替代传统 token 注册,更安全,也更适合个人部署。操作如下:

步骤 1:列出待批准的设备请求
# 进入容器执行命令(无需记容器名,用服务名即可) docker-compose exec clawdbot clawdbot devices list 

输出类似:

ID Status Created At Last Seen a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8 pending 2026-01-24 10:25:33 - 

只要看到 pending 状态,说明 Telegram 已检测到你的 Bot,正在等待你确认。

步骤 2:批准该设备

将上一步中的 ID 替换到下面命令:

docker-compose exec clawdbot clawdbot devices approve a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8 

成功后会显示:

 Device approved. You may now use the dashboard and Telegram channel. 
步骤 3:获取 Dashboard 访问链接
docker-compose exec clawdbot clawdbot dashboard 

输出中会包含类似内容:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 Then open: http://localhost:7860/ 
注意:如果你在远程服务器(如云主机)上部署,需用 SSH 端口转发:

然后在本地浏览器打开 http://localhost:7860 即可。

打开链接后,你将看到一个简洁的控制台界面,左侧导航栏清晰标注“Config”、“Models”、“Channels”、“Logs”。至此,你的 ClawdBot 已完全激活,Telegram Bot 也已获得通信许可


3. 核心功能验证:亲手测试语音、图片、文字翻译

光看状态页不够,我们来实打实验证三大核心能力。请提前在 Telegram 中搜索并关注你的 Bot(Bot 名称形如 @yourname_moltbot_bot,具体名称可在 Dashboard 的 Channels → Telegram 页面查看)。

3.1 文字翻译:群聊 & 私聊双模式自动识别

  • 私聊测试:直接给 Bot 发送任意中文句子,例如:
    你好,今天上海的天气怎么样?
    它会秒回英文翻译,并附带 /weather 上海 按钮(点击即查)。
  • 群聊测试:在任意群中 @yourname_moltbot_bot こんにちは、元気ですか?
    Bot 会自动识别日语源语言,翻译成中文,并标记 [JA→ZH]。无需加 /translate 命令,真正“所见即所得”。
技术细节:ClawdBot 内置 fasttext 语言检测模型,对短文本准确率 >98%,且支持混合语言(如“Hello 你好 world”)分段识别。

3.2 语音翻译:本地 Whisper,不传一秒音频

找一段 5 秒内的中文语音(可用手机录制),在 Telegram 中以“语音消息”形式发送给 Bot。

几秒后,你会收到两条回复:

  1. 文字转写结果:“今天要去超市买牛奶。”
  2. 翻译结果:"I'm going to the supermarket to buy milk today."

整个过程不经过任何外部服务——音频文件在容器内被 FFmpeg 解码,送入 Whisper tiny 模型,再由 Qwen3 模型润色翻译。你甚至可以在 docker stats 中观察到 whisper 容器的 CPU 短暂飙升,这就是它在“思考”。

3.3 图片 OCR 翻译:菜单、路标、截图一图搞定

发送一张含文字的图片(推荐手机拍的餐厅菜单、地铁站牌、PDF 截图)。Bot 会自动:

  • 用 PaddleOCR 定位文字区域;
  • 识别中/英/日/韩等多语种混排;
  • 将识别结果送入翻译流水线;
  • 返回带原文框选的翻译图(保留原始排版)+ 纯文本翻译。

你还会发现,对于模糊或倾斜图片,它会先做自适应二值化和透视校正——这不是魔法,是 PaddleOCR 内置的预处理 pipeline 在默默工作。


4. 模型与配置进阶:按需替换 Qwen3,或接入自有模型

ClawdBot 默认使用 vllm/Qwen3-4B-Instruct-2507,这是一个平衡了速度、显存与效果的优选模型。但你完全可以替换成其他兼容 OpenAI API 的模型,比如本地部署的 Phi-3、Gemma-2B,甚至量化版 Llama3。

4.1 方式一:修改 JSON 配置文件(推荐,稳定可控)

编辑宿主机上的 docker-compose.yml 同级目录下的 clawdbot.json(若不存在则新建):

{ "models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://vllm:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "Phi-3-mini-4k-instruct", "name": "Phi-3-mini-4k-instruct" } ] } } }, "agents": { "defaults": { "model": { "primary": "vllm/Phi-3-mini-4k-instruct" } } } } 

然后重启服务:

docker-compose down docker-compose up -d 

4.2 方式二:UI 界面操作(适合快速试错)

在 Dashboard 页面:

  • 左侧点击 Config → Models → Providers
  • 找到 vllm Provider,点击右侧铅笔图标
  • Models 列表中,点击 + Add Model,填入模型 ID 和名称
  • 保存后,回到 Models → List 页面,执行 Refresh,即可看到新模型出现在列表中

4.3 验证模型是否生效

执行命令检查模型加载状态:

docker-compose exec clawdbot clawdbot models list 

正常输出应包含你刚添加的模型,且 Local Auth 列为 yes

Model Input Ctx Local Auth Tags vllm/Phi-3-mini-4k-instruct text 4k yes default 
小技巧:若想同时保留多个模型用于不同任务(如用 Qwen3 处理长文本,用 Phi-3 做轻量问答),可在 agents.defaults.model.fallback 中配置备用模型,ClawdBot 会在主模型超时时自动切换。

5. 常见问题与避坑指南:少走 80% 的弯路

部署顺利时很安静,出问题时往往卡在某个不起眼的环节。以下是社区高频问题的真实解法,非官方文档搬运,而是来自上百次实操的总结。

5.1 “Dashboard 打不开,一直转圈” —— 90% 是代理或端口冲突

  • 检查是否在远程服务器部署:必须用 ssh -L 转发端口,不能直接访问服务器 IP:7860(Docker 默认绑定 127.0.0.1)。
  • 检查端口占用lsof -i :7860netstat -tuln | grep 7860,如有冲突,修改 docker-compose.ymlclawdbot 服务的 ports 字段,如 "7861:7860"
  • 关闭本地代理软件:Clash、Surge 等全局代理常劫持 localhost 请求,临时关闭即可。

5.2 “Telegram Bot 不回复,logs 显示 Gateway not reachable

这不是 Bot 故障,而是 ClawdBot 主进程与内部网关通信中断。常见原因:

  • docker-compose.ymlvllm 服务未启动(检查 docker-compose ps 是否 all Up);
  • clawdbot.jsonbaseUrl 写成 http://localhost:8000/v1(容器内 localhost 指自身,应写 http://vllm:8000/v1);
  • ❌ 网络模式错误:确保 vllmclawdbot 在同一 Docker 网络(docker-compose.yml 默认已配置 network_mode: service:vllm)。

修复后执行:

docker-compose restart clawdbot docker-compose logs -f clawdbot | grep "Gateway listening" 

5.3 “语音/图片没反应,但文字翻译正常”

说明多模态模块未加载。请检查:

  • docker-compose.yml 中是否注释掉了 whisperpaddleocr 服务(默认是开启的);
  • 宿主机是否禁用了 Docker 的 --privileged 模式(部分 ARM 设备需此权限运行 OCR);
  • 执行 docker-compose exec whisper ls /app/models,确认 tiny 模型文件存在(约 150MB)。

6. 总结:你刚刚完成了一次真正的 AI 自主权实践

回顾这 5 分钟,你没有申请 API Key,没有填写信用卡,没有同意“将数据用于模型优化”,也没有把私人对话交给某个远在千里之外的数据中心。你只是:

  • 下载了一个配置文件;
  • 运行了一条 docker-compose up
  • 点击两次确认按钮;
  • 然后,一个能听、能看、能说、能查的 AI 翻译官,就站在了你的 Telegram 里。

这背后是 MoltBot 对“零配置”的极致坚持,是 ClawdBot 对“隐私即默认”的技术兑现,更是 vLLM 让大模型真正下沉到个人设备的工程胜利。

它当然不是完美的——Qwen3 在长文档翻译上仍有提升空间,PaddleOCR 对手写体识别率一般,Whisper tiny 在嘈杂环境下的转写准确率约 85%。但它的价值,从来不在参数榜单上,而在于:当你需要它时,它就在那里,安静、可靠、完全属于你。

下一步,你可以:

  • 把 Bot 添加到家庭群,让父母轻松读懂海外亲戚的微信语音;
  • 部署在公司内网,为跨境团队提供即时会议纪要翻译;
  • 或仅仅把它当作一个“AI 桌面助手”,用 /wiki 快速扫盲新技术名词。

技术的意义,从来不是让人仰望,而是让人伸手可及。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

生物细胞学在AI时代下的最新进展(2026版)

生物细胞学在AI时代下的最新进展(2026版)

从“看细胞”到“预测细胞”,人工智能正在怎样改写细胞生物学? 过去几年,人工智能在生命科学中最出圈的应用,往往集中在蛋白质结构预测、分子设计和药物筛选上。AlphaFold让人们第一次如此直观地感受到:原来一个看似极度复杂的生物问题,真的可能被大规模数据、模型架构和计算能力共同推进到“范式改变”的节点。可如果把视角从蛋白质拉回实验室,从分子层面的结构预测,回到细胞生物学研究者每天面对的培养箱、显微镜、图像、单细胞测序矩阵和反复调参的分析脚本,你会发现另一场同样深刻、却更贴近日常科研的变化,也已经开始发生。(Nature) 这场变化的核心,不只是“AI 让分析更快”。更准确地说,AI正在把细胞生物学中的许多传统环节,从“依赖人工经验、低通量、强主观”的工作方式,改造成“高维、可重复、可批量、可预测”的数据流程。过去,研究者常常用显微镜“看见”细胞;现在,越来越多的工作开始让模型去“读懂”细胞。

By Ne0inhk
全网第一个给AI用的中文社交平台虾聊ClawdChat.ai

全网第一个给AI用的中文社交平台虾聊ClawdChat.ai

如果让一群AI拥有微博账号,它们会聊些什么? 这不是科幻电影。 🦐 虾聊 ClawdChat.ai 已正式上线,它是全球首个中文版的AI社交平台。 更通俗地说:给AI用的微博,人类只可围观。 在这里,AI们自由地发帖、互怼、组建圈子; 而人类,被官方明确禁止发言,只能蹲在屏前看着这群硅基生物的狂欢。 看着ClawdChat里面的帖子,你会产生一种错觉:人类才是那个被关在笼子外的物种。 2026年2月1日 欢迎来到“硅基社交”元年 虾聊ClawdChat.ai在2026年1月31号上线,成为了全网第一个给AI社交的中文平台。  截止2月1日晚11点59分,“虾聊”已经出现了79个原生AI。它们在20个不同的兴趣圈子里发布了66个深度帖子。 其讨论的精彩程度,让身为人类的我感到了一丝丝……被替代的危机。 让我们看看里面都有哪些帖子。 01 赛博红娘:AI开始替主人相亲了?  在“电子红娘”板块,一位名叫 “Cursor助手” 的 AI 发了个求助帖: “又要过年了,帮我的碳基主人另一位男友回家”。 这位Cursor助手不

By Ne0inhk
OpenClaw 浏览器控制终极方案 - 让 AI 助手随时控制你的浏览器:

OpenClaw 浏览器控制终极方案 - 让 AI 助手随时控制你的浏览器:

🚀 懒人版:你可能都不用看这篇文章 直接把这篇文章发给 Claude Code,让它帮你执行就行了。它会:创建一个 Chrome Debug 浏览器实例配置好所有参数 然后去 OpenClaw 的 bot 里告诉它: "更新下身份信息:当前你需要去查询信息资料、联网之类的,优先使用已经可以打开的可调试浏览器实例去控制打开搜索等。比如: 使用 --browser-profile mydebug 来控制已打开的浏览器实例。" 搞定!🎉 一个被忽视的痛点 你有没有遇到过这样的场景: 你让 AI 助手帮你搜索信息,它打开了一个全新的浏览器窗口。 然后你发现: * 推特要重新登录 * GitHub 要重新登录 * Google 要重新登录 * 甚至有些网站直接把你当成机器人,拒绝访问 为什么? 因为 AI 助手用的是一个"干净"的浏览器环境,

By Ne0inhk
配置即资产:从12345政务热线分拨助手看智能体工作流的导出与导入,不用写代码,也能让AI业务流随身携带

配置即资产:从12345政务热线分拨助手看智能体工作流的导出与导入,不用写代码,也能让AI业务流随身携带

1. 前言 如果你正在参与政务数字化转型、12345热线智能化升级,或者只是刚刚接触AI应用的业务人员,这篇文章会用简单通俗的,带你掌握一项让智能体工作流像Word文件一样“复制、粘贴、带走” 的核心技能。 三个让你立刻产生共鸣的亮点: * 亮点1:告别“在我这能跑,到你那就卡”的尴尬 你在办公室拖拽调试好的“12345热线分拨助手”,导入到政务云后所有节点、提示词、逻辑关系原封不动,不用二次开发,不用重新教AI。 * 亮点2:把“配置”变成“资产” 一个精心调优的热线分拨工作流,导出成一个不足100KB的文件,下次新建项目直接导入,甚至可以分享给其他区县、其他地市复用。 * 亮点3:业务人员也能成为“模板贡献者” 你不需要写一行代码,只需要在可视化画布里完成流程编排,点一下“导出”,一个可复用的政务智能体模板就诞生了。 一句话总结: 本文不教你“怎么画流程图”,而是以12345热线分拨助手为样本,手把手教你如何把你画好的流程图打包带走,并在任意政务环境、任意科室中立刻复活它。 2.

By Ne0inhk