ClawdBot新手教程:通过Web UI修改模型配置并验证生效

ClawdBot新手教程:通过Web UI修改模型配置并验证生效

1. ClawdBot是什么:你的本地AI助手

ClawdBot 是一个可以在你自己的设备上运行的个人 AI 助手。它不依赖云端服务,所有推理都在本地完成,既保护隐私,又避免网络延迟和调用限制。它的后端由 vLLM 提供高性能大模型推理能力,支持高并发、低延迟的文本生成任务。

你不需要懂 Python、不用配 CUDA 环境、也不用写一行部署脚本——只要一台能跑 Docker 的机器(哪怕是树莓派 4),就能把它拉起来,变成你专属的智能工作台。

它不是玩具,也不是 Demo 工程。ClawdBot 的设计目标很实在:把复杂的大模型能力,封装成普通人能点、能改、能信得过的工具。你可以把它看作一个“可配置的 AI 操作系统”:模型是引擎,配置是油门,Web UI 是方向盘,而你,就是驾驶员。

2. 先让 Web 控制台跑起来:三步打通访问链路

很多新手卡在第一步:打开浏览器输入 http://localhost:7860,结果页面打不开。这不是你配置错了,而是 ClawdBot 默认启用了设备授权机制,防止未授权访问。别担心,整个过程只需三条命令,30 秒搞定。

2.1 查看待批准的设备请求

ClawdBot 启动后,会自动生成一个设备绑定请求。你需要先确认这个请求是否存在:

clawdbot devices list 

你会看到类似这样的输出:

ID Status Created At Last Seen abc123 pending 2026-01-24 10:22:15 - 

只要状态是 pending,就说明请求已发出,但还没被批准。

2.2 批准设备,解锁 Web 访问权限

复制上面显示的 ID(比如 abc123),执行批准命令:

clawdbot devices approve abc123 

批准成功后,终端会返回 Approved device abc123。此时再刷新浏览器,通常就能看到熟悉的 Web 界面了。

小提示:如果你是在远程服务器(比如云主机或 NAS)上运行 ClawdBot,本地浏览器直接访问 http://localhost:7860 是无效的。你需要做端口转发。ClawdBot 已贴心地为你生成了 SSH 命令:

执行后,在本地浏览器打开 http://localhost:7860 即可。

2.3 备用方案:一键获取带 Token 的 Dashboard 链接

如果上述方式仍不奏效,或者你想跳过手动批准步骤,直接获得可访问链接,运行:

clawdbot dashboard 

你会看到类似这样的输出:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 ... Then open: http://localhost:7860/ http://localhost:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 

复制带 ?token= 的完整链接,粘贴到浏览器地址栏,回车——Web 控制台立刻现身。

验证成功标志:页面左上角显示 🦞 ClawdBot Logo,顶部导航栏有 ChatConfigModelsLogs 等标签。这说明你已正式进入控制中心。

3. 修改模型配置:两种方式,推荐 UI 操作

ClawdBot 默认使用 vllm/Qwen3-4B-Instruct-2507 模型,但你完全可以换成其他兼容 OpenAI API 的模型,比如本地部署的 Qwen2.5、Phi-3、DeepSeek-Coder,甚至自建的 Llama 3 接口。修改方式有两种:编辑 JSON 文件 或 使用 Web UI。我们强烈推荐后者——更直观、更安全、不易出错。

3.1 Web UI 修改法(新手首选)

  1. 点击左侧导航栏 ConfigModelsProviders
    (对应图中“图2”位置)
  2. 你会看到一个表格,当前只有一行 vllm 提供商。点击右侧的 ** Edit** 按钮。
  3. 想换模型?只需改两处:
    • "id" 的值改成你本地 vLLM 服务实际加载的模型 ID(例如 qwen2.5-7b-instruct
    • "name" 改成你喜欢的显示名称(例如 Qwen2.5-7B
  4. 点击 Save,系统会自动重载配置。无需重启服务,也不用 reload 容器。

在弹出的 JSON 编辑器中,找到 models 数组部分。默认是:

"models": [ { "id": "Qwen3-4B-Instruct-2507", "name": "Qwen3-4B-Instruct-2507" } ] 
为什么推荐 UI?因为直接改 /app/clawdbot.json 文件容易因格式错误(比如多一个逗号、少一个引号)导致整个服务启动失败。UI 编辑器自带语法校验,保存前会提示你是否合法,极大降低翻车概率。

3.2 手动文件修改法(进阶备用)

如果你习惯命令行,或需要批量修改,也可以直接编辑配置文件:

nano /app/clawdbot.json 

重点修改两个位置:

  • agents.defaults.model.primary:指定默认使用的模型标识,格式为 provider/model-id,如 vllm/qwen2.5-7b-instruct
  • models.providers.vllm.models:确保这里列出的 id 与上面一致,且 baseUrl 指向你本地 vLLM 的地址(通常是 http://localhost:8000/v1

改完保存,然后重启 ClawdBot 容器即可生效。

注意:/app/clawdbot.json 是容器内路径,宿主机上对应的是 ~/.clawdbot/clawdbot.json。两者内容同步,改任意一处都有效。

4. 验证模型是否真正生效:三重确认法

改完配置,别急着去聊天。先用下面三个方法交叉验证,确保新模型真的“上岗”了。

4.1 终端命令验证:clawdbot models list

这是最直接、最权威的方式。运行:

clawdbot models list 

正常输出应类似:

Model Input Ctx Local Auth Tags vllm/qwen2.5-7b-instruct text 131k yes yes default 

关键看三点:

  • 第一列 Model 显示的是你刚设置的新 ID(不是旧的 Qwen3-4B...
  • Ctx 列显示上下文长度(如 131k),说明模型已正确加载并报告了能力
  • Local Authyes,表示该模型走本地 vLLM,没被意外路由到远程

如果这里还是旧模型名,说明配置没生效,请检查 providers.vllm.models 中的 id 是否拼写一致。

4.2 Web UI 实时查看:Models 页面刷新

回到 Web 控制台,再次点击 ConfigModelsProviders。点击 vllm 行的 ** Edit**,确认 JSON 中 models[0].idmodels[0].name 已更新。关闭编辑器后,页面右上角会短暂显示 Configuration reloaded 提示。

4.3 实际对话验证:用一句测试语句

打开 Chat 标签页,输入一句简单但能体现模型风格的话,比如:

请用一首五言绝句,描写春天的竹林。 

观察两点:

  • 响应速度:如果新模型参数量更大(如 7B vs 4B),首次响应可能稍慢(1–2 秒),但后续会变快(vLLM 的 PagedAttention 优势);
  • 回答风格:Qwen2.5 和 Qwen3 在古诗生成、逻辑严谨性上有细微差别。多问两句,感受语言节奏和用词偏好是否符合预期。
验证通过标志:命令行 models list 显示新模型 + Web UI 配置一致 + 聊天回复风格匹配。三者全部满足,才算真正生效。

5. 常见问题与避坑指南

新手在修改模型配置时,常遇到几个“看似报错、实则正常”的情况。这里帮你提前排雷。

5.1 “Gateway not reachable” 报错,但聊天功能正常?

这是 clawdbot channels status 命令的典型输出,完全不影响模型配置和聊天功能。它只检测 Telegram 等外部通道的连通性,而你当前操作的是本地模型推理通道(vLLM)。只要 clawdbot models list 能列出模型,就说明核心能力一切正常。

5.2 修改后 models list 仍显示旧模型?

最常见原因有两个:

  • 拼写不一致agents.defaults.model.primary 写的是 vllm/qwen2.5-7b-instruct,但 models.providers.vllm.models[0].id 写成了 qwen25-7b-instruct(少了点号或大小写错误);
  • JSON 格式错误:手动编辑时多加了一个逗号,或引号没闭合。此时 ClawdBot 会静默忽略配置,继续用默认模型。用 clawdbot dashboard 命令的输出里如果有 Your .env is showing; don't worry, I'll pretend I didn't see it. 这类提示,说明配置加载成功;如果出现 Error loading config,那就是 JSON 语法问题。

5.3 换了模型,但响应变慢或出错?

检查你的 vLLM 服务是否真的加载了新模型。进入 vLLM 容器,运行:

curl http://localhost:8000/v1/models 

返回的 JSON 中 data[0].id 必须与你在 ClawdBot 中配置的 id 完全一致(包括大小写、符号)。如果 vLLM 根本没加载该模型,ClawdBot 就会报错或 fallback 到默认模型。

5.4 想试试别的模型,但不知道哪些能用?

ClawdBot 兼容所有遵循 OpenAI API 格式的后端,包括:

  • vLLM(推荐,性能最强)
  • Ollama(适合快速试模)
  • Text Generation WebUI(兼容性好)
  • 自建 FastAPI 封装服务

只要你的后端能响应 GET /v1/models 并返回标准格式,ClawdBot 就能识别。配置时,把 baseUrl 指向它的地址,id 填它返回的模型 ID 即可。

6. 总结:你已经掌握了模型配置的核心闭环

恭喜你,完成了从“打不开页面”到“自由切换模型”的完整旅程。回顾一下,你实际掌握的不是几条命令,而是一个可复用的工程化闭环:

  • 访问闭环devices listdevices approvedashboard,三步打通本地/远程访问;
  • 配置闭环:Web UI 图形化编辑 → 实时保存 → 自动重载,零风险修改;
  • 验证闭环models list 查状态 → UI 看配置 → Chat 试效果,三重保险确认生效。

这背后体现的是 ClawdBot 的设计哲学:把开发者友好的能力,包装成用户友好的体验。你不需要理解 vLLM 的 PagedAttention 是什么,但你能用它跑起 7B 模型;你不需要研究 OpenAI API 的鉴权细节,但你能一键切到自己的私有模型。

下一步,你可以尝试:

  • ConfigAgents 中调整 maxConcurrent,控制同时处理多少个请求;
  • 上传一个 .pdf 文件到 Chat 界面,试试多文档问答能力;
  • agents.defaults.workspace 指向你自己的项目目录,让 AI 直接读取你的代码或文档。

真正的 AI 助手,不在于它多强大,而在于你多容易让它为你所用。而你现在,已经拿到了那把钥匙。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

AIGC时代Kubernetes企业级云原生运维实战:智能重构与深度实践指南

AIGC时代Kubernetes企业级云原生运维实战:智能重构与深度实践指南

文章目录 * 一、AIGC技术栈与Kubernetes的深度融合 * 1. 智能配置生成:从YAML到自然语言 * 2. 动态资源优化:AI驱动的弹性伸缩 * 二、智能运维体系架构深度解析 * 四维能力矩阵增强实现: * 关键组件升级代码示例: * 三、企业级实战策略深度实践 * 策略1:AI辅助的渐进式交付 * 策略2:自主优化闭环实现 * 四、典型场景实战深度解析 * 场景1:突发流量应对(完整代码示例) * 场景2:混合云灾备(多云适配代码) * 五、未来演进方向代码探索 * 数字孪生示例(简化版) * 边缘智能示例 * 《Kubernetes企业级云原生运维实战(云计算前沿实战丛书)》 * 编辑推荐 * 内容简介 * 作者简介 * 目录 * 前言/序言 * 本书内容 * 本书特点 在生成式AI(AIGC)与云原生技术深度融合的今天,Kubernetes正经历着从“容器编排工具”到“智能运维大脑”的蜕变。

基于YOLOv8的无人机红外检测系统(车辆行人)(YOLOv8深度学习+YOLO数据集+UI界面+Python项目+模型)

基于YOLOv8的无人机红外检测系统(车辆行人)(YOLOv8深度学习+YOLO数据集+UI界面+Python项目+模型)

一、项目介绍 摘要 本项目基于YOLOv8深度学习目标检测算法,开发了一套适用于无人机红外影像的实时检测系统,能够精准识别车辆(Car)、其他车辆(OtherVehicle)、行人(Person)以及无效检测区域(DontCare)等4类目标。系统采用大规模红外数据集进行训练,其中训练集10,128张、验证集715张、测试集355张,确保模型在复杂环境下的鲁棒性和泛化能力。 YOLOv8作为当前最先进的实时检测算法之一,在保持高精度的同时实现了低延迟、高效率的检测性能,特别适用于无人机(UAV)搭载的边缘计算设备。本系统可广泛应用于夜间监控、应急救援、智慧交通、军事侦察等场景,为红外视觉分析提供可靠的AI解决方案。 项目意义 1. 提升无人机红外检测的智能化水平 无人机搭载红外摄像头在夜间、雾天、烟雾环境等低能见度条件下具有独特优势,但传统算法在复杂场景下的检测能力有限。本系统利用深度学习技术,显著提高了红外影像中车辆、行人等关键目标的识别准确率,使无人机具备更强的自主感知能力。 2. 增强夜间与恶劣环境下的监控能力 红外成像不受光照条件限制,适用于夜间巡逻、森林

解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型 很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true, 完成后再重启vscode,claude就有了: