ClawdBot入门指南:Web Dashboard访问失败的4种原因与修复方案

ClawdBot入门指南:Web Dashboard访问失败的4种原因与修复方案

ClawdBot 是一个你可以在自己设备上运行的个人 AI 助手,本应用使用 vLLM 提供后端模型能力。它不像云端服务那样需要注册账号、等待排队或担心隐私泄露,而是一个真正属于你自己的本地化智能中枢——能对话、能推理、能调用工具、还能通过 Web 界面直观管理所有功能。

但很多用户在首次部署后会遇到同一个问题:打开浏览器输入 http://localhost:7860 或类似地址,页面却显示“无法访问此网站”“连接被拒绝”“空白页”甚至直接 404。这不是模型没跑起来,也不是代码写错了,而是 ClawdBot 的 Web Dashboard 有一套主动安全机制:它默认不对外暴露,也不自动放行任何访问请求。就像家门装了智能门锁,钥匙得亲手配、访客得亲自确认。

本文不讲原理、不堆参数,只聚焦一个目标:让你的 Dashboard 在 5 分钟内稳稳打开、正常交互、顺利开始使用。我们梳理出实际部署中导致访问失败的 4 种高频原因,并给出每一种对应的、可立即执行的修复方案——全部基于真实终端操作和配置文件修改,不依赖猜测,不绕弯子。


1. 设备授权未完成:Pending 请求卡住入口

ClawdBot 的 Web 控制台采用设备配对机制(Device Pairing),首次访问时,前端会向后端发起一个认证请求,该请求不会自动通过,而是进入 pending 状态。此时 Dashboard 页面加载失败,但后端其实已正常运行。

1.1 如何确认是这个问题?

在终端中执行:

clawdbot devices list 

如果输出中包含类似以下内容,且状态为 pending,就说明问题在此:

ID Status Created At Last Seen d1a2b3c4 pending 2026-01-24 14:22:03 - 
注意:这个命令必须在 ClawdBot 进程正在运行的前提下执行。如果提示 command not found,请先确认是否已正确安装并激活环境。

1.2 修复步骤:手动批准设备请求

复制上面输出中的 ID(如 d1a2b3c4),执行批准命令:

clawdbot devices approve d1a2b3c4 

成功后你会看到类似提示:

 Device d1a2b3c4 approved. You may now access the dashboard. 

此时刷新浏览器,Dashboard 即可正常加载。

1.3 补充说明:为什么设计成手动批准?

这是 ClawdBot 的隐私保护设计。它默认不信任任何未经验证的客户端连接,避免本地服务被局域网内其他设备意外访问或扫描。你完全掌控谁可以连上你的 AI 助手——就像给路由器后台加了一道二次确认。


2. 本地监听地址未正确映射:服务只绑定了 127.0.0.1

ClawdBot 默认将 Web UI 绑定在 127.0.0.1:7860,这意味着它仅接受本机回环访问。如果你是在远程服务器(如云主机、树莓派)上部署,然后从自己电脑的浏览器访问 http://服务器IP:7860,就会失败——因为服务根本没监听那个 IP。

2.1 如何确认是这个问题?

执行以下命令查看当前监听地址:

ss -tuln | grep :7860 

如果输出只有:

tcp LISTEN 0 5 127.0.0.1:7860 0.0.0.0:* users:(("clawdbot",pid=1234,fd=10)) 

说明它只监听 127.0.0.1,不响应外部请求。

2.2 修复方案一:启用远程访问(推荐用于开发/测试)

编辑配置文件 /app/clawdbot.json(或 ~/.clawdbot/clawdbot.json):

{ "web": { "host": "0.0.0.0", "port": 7860, "enableCors": true } } 

注意:"host": "0.0.0.0" 表示监听所有网络接口;"enableCors": true 允许跨域请求(否则前端资源可能加载失败)。

保存后重启 ClawdBot 服务(如使用 Docker,则 docker restart clawdbot)。

2.3 修复方案二:SSH 端口转发(更安全,推荐生产环境)

无需改配置,直接在本地电脑终端执行:

ssh -N -L 7860:127.0.0.1:7860 user@your-server-ip 

然后在本地浏览器打开 http://localhost:7860 即可。这种方式不暴露服务到公网,所有流量经 SSH 加密隧道传输,安全性更高。


3. Token 链接未正确使用:带 token 的 URL 被忽略

ClawdBot 的 Dashboard 启用了 token 认证机制,每次启动都会生成一个一次性访问令牌(token)。即使服务已运行、地址也正确,缺少 token 的 URL 仍会被拒绝访问

3.1 如何获取有效 Token 链接?

在终端中运行:

clawdbot dashboard 

你会看到类似输出:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 

这个完整链接才是有效的。只访问 http://127.0.0.1:7860 是不行的。

3.2 常见误区与纠正

  • ❌ 错误做法:复制 http://127.0.0.1:7860 后手动拼接 token
  • 正确做法:完整复制整行 Dashboard URL: 后的链接,包括 ?token=... 部分
  • 注意:token 有有效期(默认 24 小时),过期后需重新运行 clawdbot dashboard 获取新链接

3.3 进阶技巧:让 token 永久生效(可选)

若希望每次启动都用固定 token,可在配置中指定:

{ "web": { "token": "my-super-secret-token-2026" } } 

这样生成的链接就是 http://127.0.0.1:7860/?token=my-super-secret-token-2026,便于书签收藏或自动化脚本调用。


4. vLLM 后端未就绪:Dashboard 已启动,但模型服务不可用

ClawdBot 的 Web 界面本身轻量,但它严重依赖后端 vLLM 服务提供模型推理能力。如果 vLLM 未启动、端口冲突、模型加载失败,Dashboard 虽然能打开,但会出现“加载中…”“模型不可用”“Connection refused”等提示,甚至白屏。

4.1 如何快速验证 vLLM 是否就绪?

ClawdBot 自带诊断命令:

clawdbot models list 

正常输出应类似:

Model Input Ctx Local Auth Tags vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default 

如果报错如 Error: failed to connect to vLLM at http://localhost:8000/v1,说明 vLLM 服务未运行或地址配置错误。

4.2 检查 vLLM 配置是否匹配

打开 /app/clawdbot.json,确认 models.providers.vllm.baseUrl 与你实际运行的 vLLM 地址一致:

"providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses" } } 

常见错误:

  • vLLM 实际运行在 http://127.0.0.1:8000/v1,但配置写成了 http://localhost:8000/v1(在某些容器环境中二者不等价)
  • vLLM 使用了非标准端口(如 8080),但配置仍是 8000
  • vLLM 运行在另一台机器,但 baseUrl 写的是 localhost

修复方法:统一改为 http://host.docker.internal:8000/v1(Docker 容器内访问宿主机)或实际 IP 地址。

4.3 一键启动 vLLM(以 Qwen3-4B 为例)

如果你尚未启动 vLLM,可用以下命令快速拉起(确保已安装 vLLM):

python -m vllm.entrypoints.api_server \ --model Qwen/Qwen3-4B-Instruct \ --dtype bfloat16 \ --tensor-parallel-size 1 \ --port 8000 \ --host 0.0.0.0 

启动成功后,再次运行 clawdbot models list,应能列出模型。


总结:4步定位,1次解决

Web Dashboard 打不开?别急着重装、别盲目查日志。按下面这个顺序快速排查,90% 的问题都能当场解决:

1. 检查设备授权

→ 运行 clawdbot devices list,若有 pending 条目,立即 approve

2. 确认监听地址

→ 运行 ss -tuln | grep :7860,若只绑定 127.0.0.1,则改配置 host: "0.0.0.0" 或用 SSH 转发

3. 使用完整 Token 链接

→ 必须运行 clawdbot dashboard 复制整条 URL,不能省略 ?token=...

4. 验证 vLLM 后端连通性

→ 运行 clawdbot models list,失败则检查 baseUrl 配置与 vLLM 实际运行状态

这四步不是理论推演,而是从上百次真实部署反馈中提炼出的最小可行路径。它们不依赖经验、不考验耐心,只要照着命令敲,就能看到 Dashboard 真正亮起来。

你不需要成为系统管理员,也不必读懂每一行 JSON。ClawdBot 的设计哲学是:强大,但不复杂;安全,但不繁琐;本地,但不封闭。

现在,关掉这篇指南,打开终端,输入第一条命令——你的个人 AI 助手,只差一次 approve


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

(第四篇)Spring AI 实战进阶:Ollama+Spring AI 构建离线私有化 AI 服务(脱离 API 密钥的完整方案)

(第四篇)Spring AI 实战进阶:Ollama+Spring AI 构建离线私有化 AI 服务(脱离 API 密钥的完整方案)

前言 作为企业级开发者,我们在使用大模型时常常面临三大痛点:依赖第三方 API 密钥导致的成本不可控、外网依赖导致的合规风险、用户数据上传第三方平台导致的安全隐患。尤其是金融、政务等敏感行业,离线私有化部署几乎是硬性要求。 笔者近期基于 Ollama+Spring AI 完成了一套离线 AI 服务的落地,从模型拉取、量化优化到 RAG 知识库构建全程无外网依赖,彻底摆脱了 API 密钥的束缚。本文将从实战角度,完整拆解离线 AI 服务的开发全流程:包含 Ollama 部署、Spring AI 深度对接、模型量化优化、离线 RAG 知识库落地,所有代码均经过生产环境验证,同时结合可视化图表清晰呈现核心逻辑,希望能为企业级离线 AI 部署提供可落地的参考方案。 一、项目背景与技术选型 1.1 核心痛点与解决方案 业务痛点解决方案技术选型依赖第三方

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

第一部分:认知篇 —— 什么是 OpenClaw? 1.1 定义与定位 OpenClaw(原名 Clawdbot / Moltbot)是一个本地优先、隐私至上、多渠道集成的自托管 AI 助手平台。它标志着人工智能从“对话式交互”迈入“自主行动”的第三阶段。 通俗理解: 传统 AI(如网页版 ChatGPT):你问一句,它答一句,像个顾问。 OpenClaw:你给它一个目标(如“帮我整理本月财报并发送给团队”),它能自己规划步骤、搜索数据、处理文件、发送邮件,像个员工。 1.2 核心架构:App、Gateway 与 CLI 要玩转 OpenClaw,必须理解它的三个核心组件: Gateway(网关)

OpenClaw&Discord 多 Agent 多频道配置实战:从零搭建你的 AI 团队(附踩坑实录)

OpenClaw&Discord 多 Agent 多频道配置实战:从零搭建你的 AI 团队(附踩坑实录)

本文记录了我从零开始配置 OpenClaw 多 Agent 多 Discord 频道的完整过程,基于最新的 OpenClaw 2026.2.22-2 版本,包含实际配置文件和踩坑实录。 一、背景与需求 1.1 为什么要多 Agent? 当 AI Agent 的应用场景越来越丰富时,单一 Agent 很难同时胜任多种专业任务: * 编程任务需要代码能力和技术深度 * 内容创作需要写作技巧和文案感觉 * 健康管理需要健身知识和营养学背景 * 投资分析需要金融市场理解和数据敏感性 让每个 Agent 专注一个领域,比让一个 Agent 什么都懂但什么都不精要好得多。 1.2 为什么要多 Discord 频道? 在 Discord 场景中,不同的频道有不同的氛围和用途: 频道用途对应 Agent#🎯-指挥台主沟通入口,任务分发Cypher

AI 原生架构:鸿蒙App的下一代形态

AI 原生架构:鸿蒙App的下一代形态

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、