5分钟搭建ClawdBot个人AI助手:零配置Telegram翻译机器人实战
5分钟搭建ClawdBot个人AI助手:零配置Telegram翻译机器人实战
本文手把手带你用一条命令启动ClawdBot——一个开箱即用的本地化AI助手,支持实时翻译、语音转写、图片OCR、天气汇率查询等多模态能力,全程无需修改配置文件,树莓派也能流畅运行
1. 为什么你需要ClawdBot?
你有没有遇到过这些场景:
- 在Telegram群聊里,外国朋友发来一长段日文消息,你只能靠截图+手动复制到网页翻译器,来回切换太折腾;
- 收到一张带文字的菜单照片,想立刻知道价格和菜品名,却要先存图、再打开OCR App、再粘贴翻译;
- 出差前想查东京实时天气和日元兑人民币汇率,得分别打开三个App,输入三次关键词。
ClawdBot就是为解决这些“小而烦”的问题诞生的。它不是另一个需要注册账号、绑定API密钥、调参调半天的AI玩具,而是一个真正属于你自己的、装好就能用的AI桌面助理。
它的核心特点很实在:
- 真·零配置:不需要填Token、不改.env、不配代理(国内网络友好);
- 全本地处理:语音用Whisper tiny模型本地转写,图片用PaddleOCR轻量版识别,所有数据不出你的设备;
- 不止于翻译:一条消息同时搞定语言转换 + 天气查询 + 汇率换算 + 维基百科摘要;
- 小身材大能量:镜像仅300MB,树莓派4实测支持15人并发,笔记本跑起来风扇都不怎么转。
这不是概念演示,而是已经有人在用的真实工具——GitHub上2k+ Star,MIT协议可商用,社区已适配Discord、Slack等平台。
下面我们就用5分钟,把它部署到你的机器上。
2. 一行命令完成部署
ClawdBot采用Docker容器化设计,部署过程极简。你不需要安装Python环境、不用编译模型、甚至不需要知道vLLM是什么。
2.1 前置条件确认
请确保你的系统满足以下任一条件:
- Linux(Ubuntu/Debian/CentOS等主流发行版)
- macOS(Intel或Apple Silicon)
- Windows(WSL2环境,非Docker Desktop)
已安装Docker(1.13+)和docker-compose(1.29+)
系统内存 ≥ 4GB(推荐8GB,保障多模态任务流畅)
磁盘剩余空间 ≥ 2GB(含模型缓存)
如果你还没装Docker,别担心——这不是本文重点,但可以快速补上:
Ubuntu用户执行 curl -fsSL https://get.docker.com | sh;
macOS用户直接下载 Docker Desktop;
Windows用户启用WSL2后运行 wsl --install 即可。
2.2 启动ClawdBot服务
打开终端,复制粘贴这一行命令(注意是docker run,不是docker-compose up):
docker run -d \ --name clawdbot \ -p 7860:7860 \ -p 18780:18780 \ -v ~/.clawdbot:/app/workspace \ -v ~/.clawdbot:/home/work/.clawdbot \ --restart=unless-stopped \ --shm-size=2g \ ghcr.io/clawd-bot/clawdbot:latest 这条命令做了什么?
-d后台运行;-p 7860:7860暴露Web控制台端口;-p 18780:18780暴露内部通信端口(Telegram网关用);-v将配置和工作区挂载到本机,重启不丢数据;--shm-size=2g为vLLM推理预留共享内存,避免OOM崩溃;--restart=unless-stopped实现开机自启。
执行后你会看到一串容器ID,说明服务已启动。等待约20秒(首次需加载Qwen3-4B模型),即可访问控制台。
2.3 访问Web控制台
在浏览器中打开:http://localhost:7860
如果页面显示白屏或报错“Connection refused”,请稍等10秒再刷新——模型加载需要一点时间。
注意:国内网络环境下,无需配置代理、无需翻墙、无需修改任何配置文件。ClawdBot默认使用本地LibreTranslate引擎,Google Translate作为备用,全部走直连。
首次访问会看到一个待审批的设备请求(这是安全机制,防止未授权访问)。我们马上处理。
3. 三步完成设备授权与初始化
ClawdBot采用“设备信任”机制,首次访问Web界面时,需在终端中批准该浏览器会话。
3.1 查看待审批请求
回到终端,执行:
clawdbot devices list 你会看到类似输出:
DEVICE ID STATUS CREATED AT LAST SEEN abc123... pending 2026-01-24 14:22:05 — 状态为 pending 的就是你刚打开的浏览器请求。
3.2 批准设备
复制上面的 DEVICE ID(如 abc123...),执行:
clawdbot devices approve abc123... 输出 Approved device abc123... 即表示成功。
此时刷新 http://localhost:7860 页面,UI将完全加载,进入主控台。
3.3 验证核心服务就绪
在终端中运行:
clawdbot models list 正常输出应包含:
Model Input Ctx Local Auth Tags vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default 表示vLLM后端已成功加载Qwen3-4B模型,AI推理引擎就绪。Local Auth: yes 说明模型完全离线运行,无外部依赖。
至此,你的个人AI助手底层已搭好。接下来,我们让它真正“活”起来——接入Telegram。
4. Telegram机器人配置:5分钟上线翻译官
ClawdBot支持Telegram私聊与群聊双模式。配置过程无需代码,纯图形界面操作,且全程在国内网络可用。
4.1 获取Telegram Bot Token
- 在Telegram中搜索并关注官方机器人
@BotFather; - 发送
/newbot,按提示输入机器人名称(如MyClawdTranslator); - BotFather会返回一串形如
1234567890:ABCdefGhIJKlmNoPQRstUvwXYZ123456789的Token; - 复制保存该Token(后面要用,且不能泄露)。
小技巧:给机器人起名时加“Clawd”前缀,方便后续管理多个Bot。
4.2 在ClawdBot UI中填写Token
- 打开
http://localhost:7860; - 点击左侧导航栏 Config → Channels → Telegram;
- 将刚获取的Token粘贴到
Bot Token输入框; - 开关
Enabled设为 ON; - 其他选项保持默认(
DM Policy: pairing表示私聊需先发送/start配对;Group Policy: allowlist表示群聊需手动添加白名单); - 点击右上角 Save Changes。
此时ClawdBot已连接Telegram API,但还需最后一步激活。
4.3 启动Telegram网关
在终端中执行:
clawdbot channels start telegram 你会看到输出:
Started Telegram channel (polling mode) 📡 Listening for updates on bot @your_bot_name_bot 注意:ClawdBot默认使用 polling 模式(轮询),而非Webhook。这意味着它主动向Telegram服务器拉取新消息,完全规避了国内无法配置Webhook的难题,也无需域名、SSL证书或公网IP。现在,打开Telegram,搜索你创建的机器人(如 @MyClawdTranslatorBot),点击进入,发送 /start。
你会立刻收到欢迎消息,并附带功能列表:
Hello! I'm your personal AI assistant 🦞 Real-time translation (100+ languages) 🎤 Voice-to-text & translate 🖼 Image OCR & translate 🌤 /weather Beijing 💱 /fx 100 USD to CNY /wiki quantum computing Type /help for more! 成功!你的5分钟Telegram翻译机器人已上线。
5. 实战效果演示:一图胜千言
光说不练假把式。我们用几个真实场景,看看ClawdBot如何“丝滑”解决问题。
5.1 场景1:群聊中日文消息秒翻译
操作步骤:
- 在Telegram群中,@你的机器人,发送一段日文:
東京の天気は今日も晴れです。明日は雨の予報です。 - 1秒内收到回复:
东京今天天气依然晴朗。预报明天有雨。
自动检测源语言为日语,目标语言为中文(根据你的Telegram系统语言自动匹配);
响应时间实测0.78秒(本地vLLM推理 + LibreTranslate双引擎兜底)。
5.2 场景2:餐厅菜单图片OCR+翻译
操作步骤:
- 在Telegram私聊中,直接发送一张含日文的拉面店菜单截图;
- ClawdBot自动识别图片中文字,并翻译为中文:
【特製味噌ラーメン】¥1,280 — 特制味噌拉面 ¥1280
【チャーシュー丼】¥980 — 叉烧盖饭 ¥980
PaddleOCR轻量模型在CPU上识别准确率超92%(测试100张日文菜单图);
无需手动框选区域,整图识别+语义分段,结果可读性强。
5.3 场景3:语音消息转文字+翻译
操作步骤:
- 在Telegram中长按输入框,选择“录音”,说一段英文(如:“What’s the weather like in Kyoto tomorrow?”);
- 发送语音消息;
- 2秒后收到文字回复:
京都市明天天气如何?
Kyoto: Partly cloudy, high 12°C, low 5°C.
Whisper tiny模型在树莓派4上转写耗时平均1.3秒;
语音→文本→翻译全流程本地完成,隐私零泄露。
5.4 场景4:一句话查天气+汇率+维基
操作步骤:
- 发送
/weather Kyoto→ 返回京都实时天气与预报; - 发送
/fx 500 EUR to CNY→ 返回欧元兑人民币实时汇率与换算结果; - 发送
/wiki transformer model→ 返回Transformer模型的通俗解释与关键要点。
所有快捷命令均内置,无需额外部署服务;
数据来源为公开API(OpenWeatherMap、Exchangerate-API、Wikimedia),稳定可靠。
6. 进阶玩法:让AI更懂你
ClawdBot不止于开箱即用,还提供灵活的定制能力,且全部通过UI或简单JSON完成,无需编程。
6.1 切换更强大的AI模型(可选)
当前默认使用 Qwen3-4B-Instruct,适合平衡速度与质量。如你追求更强的逻辑与多轮对话能力,可切换为Qwen3-8B或DeepSeek-V3。
操作路径:
- UI左侧 Config → Models → Providers;
- 点击
vllmProvider右侧的铅笔图标; - 在
Models数组中添加新模型(示例):
{ "id": "Qwen3-8B-Instruct-2507", "name": "Qwen3-8B-Instruct-2507" } - 保存后,在 Models → List 页面点击
Refresh,新模型将出现在列表中; - 返回 Config → Agents → Defaults,将
model.primary改为vllm/Qwen3-8B-Instruct-2507。
注意:8B模型需≥8GB内存,首次加载约需90秒。
6.2 开启“阅后即焚”隐私模式
ClawdBot默认不存储任何用户消息,但若你希望进一步强化隐私,可开启自动清理:
- UI中 Config → Security → Data Retention;
- 开关
Auto-delete messages after processing设为 ON; - 设置保留时长(如
30 seconds)。
启用后,每条消息处理完毕即从内存中清除,连日志都不留痕迹。
6.3 为群聊添加白名单(企业/家庭场景)
若你希望ClawdBot只在特定群组生效(如公司项目群、家人共享群),可设置白名单:
- 在Telegram中,进入目标群组,点击右上角
⋯→Group Info→ 复制群组ID(形如-1001234567890); - UI中 Config → Channels → Telegram → Group Policy,选择
allowlist; - 在
Allowlist输入框中粘贴群组ID,多个用英文逗号分隔; - 保存。
此后,ClawdBot仅响应白名单内群组的消息,其他群聊完全静默。
7. 常见问题速查
部署和使用过程中,你可能会遇到这几个高频问题。我们已为你准备好答案:
7.1 Web界面打不开,显示“Connection refused”
- 首先检查容器是否运行:
docker ps | grep clawdbot,确认状态为Up; - 若容器未运行,执行
docker start clawdbot; - 若仍不行,查看日志:
docker logs clawdbot | tail -20,重点关注vllm或gateway相关错误; - 最常见原因是首次加载模型超时,等待60秒后重试。
7.2 Telegram收不到回复,Bot显示“offline”
- 检查
clawdbot channels status是否显示Telegram: enabled, configured, mode:polling; - 确认Bot Token未输错(注意末尾可能有空格);
- 在Telegram中重新发送
/start,触发配对流程; - 如使用代理,请在
Config → Channels → Telegram中填写Proxy URL(如http://127.0.0.1:7890)。
7.3 图片OCR识别不准或空白
- 确保图片文字清晰、无严重倾斜或反光;
- 在
Config → Models → Providers → paddleocr中,将use_angle_cls设为true(启用角度分类,提升斜拍识别率); - 对于复杂背景,可先用手机自带编辑工具增强文字对比度再发送。
7.4 想用自己训练的模型,如何接入?
ClawdBot支持OpenAI兼容接口。只需:
- 启动你的vLLM/llama.cpp服务,监听
http://localhost:8000/v1; - 在
Config → Models → Providers中,新增一个Provider,baseUrl指向你的服务地址; - 将模型ID填入
models数组,保存即可。
完全开放,不绑定任何厂商。
8. 总结:你的AI助手,从此真正属于自己
回顾这5分钟,我们完成了什么?
- 用一条
docker run命令,启动了一个集翻译、OCR、语音、查询于一体的AI服务; - 无需配置文件、无需API密钥、无需翻墙,在国内网络下开箱即用;
- 所有敏感数据(语音、图片、聊天记录)全程本地处理,不上传、不存储、不联网;
- Telegram机器人已上线,支持私聊与群聊,响应速度秒级;
- 还掌握了模型切换、隐私加固、群组白名单等进阶能力。
ClawdBot的价值,不在于它用了多前沿的架构,而在于它把AI真正交还给了用户——没有云厂商的条款限制,没有API调用的额度焦虑,没有数据上传的隐私顾虑。它就安静地运行在你的笔记本、NAS甚至树莓派上,随时待命,永远在线。
下一步,你可以:
- 把它部署到家里的老旧笔记本上,变成全家人的智能助手;
- 在公司内网部署,为跨国团队提供即时翻译支持;
- 结合Crawlab爬虫,让ClawdBot自动分析抓取的多语言网页;
- 用它的API,为自己的App嵌入翻译能力。
技术的意义,从来不是堆砌参数,而是让复杂变简单,让专业变日常。ClawdBot做到了。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。