ClawdBot高清演示:Web UI中模型加载、对话历史、Token统计界面截图
ClawdBot高清演示:Web UI中模型加载、对话历史、Token统计界面截图
1. ClawdBot 是什么?一个真正属于你的本地AI助手
ClawdBot 不是一个云端调用的网页工具,也不是需要注册账号的SaaS服务。它是一个能完整运行在你自己的笔记本、台式机甚至树莓派上的个人AI助手——所有推理、记忆、上下文管理都在本地完成,你的对话不会上传到任何第三方服务器。
它的核心能力由 vLLM 提供支撑。vLLM 是当前最高效的开源大模型推理引擎之一,以极低的显存占用和极高的吞吐量著称。ClawdBot 把 vLLM 封装成轻量级网关服务,再通过 Web UI 暴露直观的操作界面。这意味着:你不需要写一行 Python 代码,也不用配置 CUDA 环境变量,就能直接和 Qwen3-4B-Instruct 这类高质量中文模型对话,还能实时看到它“想了多久”、“用了多少字”、“上下文有多长”。
这不是概念演示,而是开箱即用的生产力工具。它不追求参数规模的堆砌,而是专注把“模型能力”变成“你能用的功能”——比如点击切换模型、滑动查看完整对话流、一眼看清每条消息消耗了多少 Token。这种设计背后,是对真实使用场景的深刻理解:用户要的不是 benchmark 分数,而是稳定、可控、可追溯的交互体验。
2. 和 MoltBot 的本质区别:专注与泛化,本地与通道
这里需要特别说明一个容易混淆的点:ClawdBot 和 MoltBot(moltbot/moltbot)是两个完全独立、定位截然不同的项目。
MoltBot 是 2025 年开源的 Telegram 多模态翻译机器人。它的强项在于“连接”——把语音、图片、文字、汇率、天气等碎片化需求,全部塞进 Telegram 这个已有生态里,用一条 docker run 命令就让群聊拥有实时翻译+OCR+快捷查询能力。它面向的是“信息流转场景”,核心价值是“快、全、省事”,部署后几乎不用调参,适合快速上线一个功能完备的群聊助手。
而 ClawdBot 的关键词是“掌控”。它不绑定任何通讯平台,不预设使用场景,也不内置天气或汇率插件。它提供的是一个干净、开放、可深度定制的 AI 底座:你可以把它接入自己的网站、嵌入内部系统、对接企业知识库,甚至改造成客服训练沙盒。它的 Web UI 不是装饰,而是工程界面——每个按钮背后都有明确的技术含义,每张截图都对应一个可验证的状态。
简单说:
- 如果你想5分钟给微信群加个翻译官,选 MoltBot;
- 如果你想亲手调试模型响应、分析 Token 消耗、管理多轮对话生命周期,ClawdBot 才是你该打开的控制台。
3. Web UI 核心界面详解:从登录到深度洞察
3.1 首次访问与设备授权:三步走通 Web 控制台
ClawdBot 的 Web UI 默认不对外暴露,这是出于安全考虑——避免未授权访问你的本地模型服务。首次访问时,你看到的很可能是一片空白或连接拒绝页面。这不是故障,而是标准的安全握手流程。
实际操作只需三步:
- 本地可访问地址:
http://localhost:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 - 远程转发命令(适用于云服务器):
ssh -N -L 7860:127.0.0.1:7860 [email protected]
获取带 Token 的直连链接
运行:
clawdbot dashboard 输出中会给出两个关键信息:
批准该设备请求
复制 ID,执行:
clawdbot devices approve abc123... 此时后台已建立信任链,但前端仍需刷新。
列出待批准设备
在终端执行:
clawdbot devices list 你会看到类似这样的输出:
ID Status Created Last Seen abc123... pending 2026-01-24 14:22:01 - 重要提示:这个 token 是单次有效的会话凭证,每次重启服务都会变化。它不是密码,而是防止 CSRF 攻击的短期签名,无需手动保管。
3.2 模型加载与切换:UI 即配置,所见即所得
ClawdBot 的模型管理分为两层:底层 JSON 配置 + 上层 Web 界面。推荐新手从 UI 入手,因为改动实时生效,且有明确反馈。
进入 Web UI 后,点击左侧导航栏 Config → Models → Providers,你会看到一个清晰的表格视图:
- 已启用的 provider 类型(如
vllm) - 对应的 base URL(默认
http://localhost:8000/v1,即本地 vLLM 服务) - API Key(固定为
sk-local,仅用于本地鉴权) - 可用模型列表(如
Qwen3-4B-Instruct-2507)
要更换模型,只需在右侧“Models”区域点击“+ Add Model”,填入模型 ID(如 Qwen3-8B-Instruct)并保存。整个过程无需重启服务,ClawdBot 会在几秒内自动探测新模型并加入下拉菜单。
验证是否成功?回到终端执行:
clawdbot models list 输出中若出现新模型名称,并标注 Local Auth: yes,即表示加载完成。此时回到聊天界面,顶部模型选择器就会同步更新。
3.3 对话历史界面:时间线式浏览,支持搜索与导出
ClawdBot 的对话历史不是简单的滚动日志,而是一个结构化的时间线视图。每条消息按会话分组,左侧显示时间戳(精确到秒),右侧区分角色(你 / Assistant),中间用不同颜色气泡呈现内容。
关键特性包括:
- 双击展开完整上下文:默认只显示前 80 字符,双击气泡即可展开整段输入/输出,避免长文本遮挡界面
- 按关键词搜索:顶部搜索框支持全文匹配,输入“发票”“合同”“Python”等词,瞬间定位相关对话
- 一键导出为 Markdown:每条会话右上角有
⋯按钮,点击后可导出为.md文件,保留格式、代码块和换行,方便归档或分享
更实用的是“会话隔离”设计:每个新对话默认开启独立上下文窗口,不会污染其他任务。你可以在标签页中同时打开“技术问题咨询”“文案润色”“代码解释”三个会话,彼此状态完全独立。
3.4 Token 统计面板:不只是数字,而是性能仪表盘
这是 ClawdBot 最具工程价值的界面之一。在任意对话窗口右上角,点击 ** Stats** 按钮,会弹出一个悬浮面板,实时显示三项核心指标:
| 指标 | 说明 | 实际意义 |
|---|---|---|
| Input Tokens | 当前请求发送给模型的文字所占 Token 数 | 判断提示词是否过长,是否触发截断 |
| Output Tokens | 模型返回内容所占 Token 数 | 评估生成结果长度,辅助控制回复精简度 |
| Context Length | 当前会话累计上下文总 Token(含历史) | 警惕超出模型最大上下文(如 Qwen3-4B 为 195K),避免早期消息被丢弃 |
面板下方还有一条动态进度条,绿色代表安全区间,黄色预警接近上限,红色则提示即将溢出。当你拖动滑块回溯某条旧消息时,进度条数值会实时变化——这让你能直观感受到“上下文成本”的物理存在。
真实案例:测试中发现,一段 300 字的中文技术描述约消耗 420 Tokens;而模型返回的 200 字解答约消耗 310 Tokens。这意味着,在 195K 上下文限制下,理论上可维持约 260 轮中等长度对话。这个数据比任何文档都更有说服力。
4. 深度配置指南:从 JSON 到生产就绪
4.1 模型配置文件解析:clawdbot.json 的关键字段
虽然 UI 可以完成大部分操作,但要实现高级控制(如设置默认模型、调整并发数、指定工作区路径),必须编辑配置文件。ClawdBot 的主配置位于 /app/clawdbot.json(容器内)或 ~/.clawdbot/clawdbot.json(宿主机)。
以下是生产环境中最常修改的几个区块:
{ "agents": { "defaults": { "model": { "primary": "vllm/Qwen3-4B-Instruct-2507" }, "workspace": "/app/workspace", "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "Qwen3-4B-Instruct-2507", "name": "Qwen3-4B-Instruct-2507" } ] } } } } agents.defaults.model.primary:设定全局默认模型,避免每次手动选择agents.defaults.maxConcurrent:限制单个会话最大并发请求数,防止显存爆满models.providers.vllm.baseUrl:指向你的 vLLM 服务地址,支持跨容器调用(如http://vllm-service:8000/v1)models.providers.vllm.models:声明可用模型列表,ID 必须与 vLLM 启动时注册的名称严格一致
修改后无需重启整个 ClawdBot,只需执行:
clawdbot reload config 系统会热重载配置并打印成功日志。
4.2 安全与隐私实践:为什么它敢说“不上传”
ClawdBot 的隐私承诺不是口号,而是架构级设计:
- 零日志策略:默认不记录任何用户输入、模型输出或元数据。所有对话仅保留在浏览器内存中,关闭标签页即清除
- 阅后即焚模式:在 Config → Security 中开启后,每条消息在渲染完成后自动从内存释放,连 DOM 节点都不保留
- 离线优先:OCR、语音转写等能力均调用本地 PaddleOCR 和 Whisper tiny 模型,全程不触网
- 代理友好:所有外发请求(如模型下载、文档链接)均支持 SOCKS5/HTTP 代理,国内用户可无缝接入
这意味着:你用它分析公司财报、调试敏感代码、起草法律文书,都不用担心数据泄露风险。它不是一个“帮你做事”的工具,而是一个“听你指挥”的执行者。
5. 总结:ClawdBot 的不可替代性在哪里?
ClawdBot 的价值,不在于它能跑多大的模型,而在于它把大模型工程中那些隐藏在幕后的复杂性,变成了你指尖可触的控件。
- 它让 模型加载 从
pip install + python launch.py变成 UI 上一次点击; - 它让 对话管理 从翻找日志文件变成时间线拖拽与关键词搜索;
- 它让 Token 成本 从抽象概念变成进度条上的实时读数;
- 它让 本地部署 从“折腾环境”变成“复制粘贴命令,喝杯咖啡等它启动”。
这不是又一个玩具项目。当你需要在一个封闭网络中部署 AI 能力,当你要为非技术人员提供稳定可控的模型接口,当你厌倦了每次升级都要重配 API 密钥和 endpoint——ClawdBot 提供的,是一套经过验证的、面向真实工程场景的交付方案。
它不承诺取代工程师,但它确实能让工程师少写 80% 的胶水代码,把精力聚焦在真正创造价值的地方。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。