Docker 部署 OpenClaw 踩坑实录:Web UI 访问、飞书配对及自定义模型配置

最近在使用 Docker 部署 OpenClaw 时遇到了一些典型的环境与配置问题。为了方便大家排查,我将这几个核心问题的表现、解决思路以及如何接入公司自己配置的大模型节点进行了梳理。


一、问题一:安装成功但 Web UI 无法访问

1. 现象描述

  • 终端提示安装成功,但在浏览器中访问http://127.0.0.1:18789 时,页面提示连接被重置。
  • 使用具体的局域网 IP(如192.168.5.30:18789)访问时,同样提示无法连接或无法访问此网站。
alt

2. 原因分析

  • 在排除了代理服务器和系统防火墙的干扰后,根本原因在于 OpenClaw 核心网关的跨域访问(CORS)安全机制。
  • 系统默认包含白名单配置,它的作用是告诉 OpenClaw 的核心网关:“只有从这些特定的网址(域名或IP)打开的控制台网页,才被允许连接我并下发控制指令”。

3. 解决方案

修改 OpenClaw 的配置文件~/.opneclaw/openclaw.json,在gateway.controlUi.allowedOrigins 节点中加上* 作为通配符(或添加你实际访问的 URL)。具体配置参考如下:

"gateway": {
  "port": 18789,
  "mode": "local",
  "bind": "lan",
  "controlUi": {
    "allowedOrigins": [
      "*",
    ],
    "dangerouslyDisableDeviceAuth": true
  }
}


二、问题二:飞书机器人配对失败与配对码刷新

1. 现象描述

  • 在系统内设置了飞书 Channel 后,通过飞书机器人发送消息没反应,系统提示未配对,并给了一个配对码。
  • 给飞书发送多次消息,配对码会不断发生改变。
alt

2. 解决方案

由于多次发消息导致配对码不断刷新,我们需要通过后台 CLI 指令直接查看并抓取最新、最准确的配对请求进行手动授权。

  1. 查看最新的飞书配对请求:执行docker compose run --rm openclaw-cli pairing list feishu 命令查看当前的配对列表。
alt
  1. 获取正确配对码:在输出的表格中,找到最新的配对码(例如:ZLX3M556)。
  2. 执行授权配对:拿到正确的配对码后,执行docker compose run --rm openclaw-cli pairing approve feishu ZLX3M556 命令通过审批。当日志输出类似Approved feishu sender ou_... 后,即代表授权成功。
alt

三、进阶配置:接入公司自行配置的大模型

OpenClaw 支持灵活地接入公司自己配置的大模型节点。配置 Agent 的方法同样是修改~/.openclaw/openclaw.json 文件。

以下是接入公司自行配置的、提供 MiniMax 模型的高速自定义节点的配置示例:

{
  "agents": {
    "defaults": {
      "model": "yuxiaor/MiniMax-M2.7-highspeed"
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "yuxiaor": {
        "api": "openai-completions",
        "baseUrl": "http://xxxxxxxxxxx/v1",
        "apiKey": "your key",
        "models": [
          { "id": "MiniMax-M2.7-highspeed", "name": "MiniMax 2.7 highspeed" }
        ]
      }
    }
  }
}

配置解析:

  • 在models.providers 节点下自定义公司自行配置的节点名称(如yuxiaor),并将其 API 格式指定为兼容性最好的openai-completions。
  • 填入公司配置节点提供的baseUrl和对应的apiKey。
  • 在agents.defaults.model 中,将默认模型指向刚才声明的节点与模型名称(如yuxiaor/MiniMax-M2.7-highspeed)。这样配置并重启后,OpenClaw 默认就会调用公司配置的模型来进行回复了。
alt

本文由 mdnice 多平台发布

Read more

uniapp vue h5小程序奶茶点餐纯前端hbuilderx

uniapp vue h5小程序奶茶点餐纯前端hbuilderx

内容目录 * 一、详细介绍 * 二、效果展示 * 1.部分代码 * 2.效果图展示 * 三、学习资料下载 一、详细介绍 uniapp奶茶点餐纯前调试视频.mp4链接: uniapp奶茶点餐纯前调试视频注意事项: 本店所有代码都是我亲测100%跑过没有问题才上架 内含部署环境软件和详细调试教学视频 代码都是全的,请放心购买 虚拟物品具有复制性,不支持七天无理由退换 源码仅供学习参考, 商品内容纯属虚构可以提供定制,二次开发先导入hbuilderx 运行后会启动微信开发工具显示效果 二、效果展示 1.部分代码 代码如下(示例): 2.效果图展示 三、学习资料下载 蓝奏云:https://qumaw.lanzoul.com/iQ2KP3goqhjg

Clawdbot+Qwen3:32B从零开始:3步完成Web Chat平台本地部署(含截图)

Clawdbot+Qwen3:32B从零开始:3步完成Web Chat平台本地部署(含截图) 1. 为什么你需要这个本地Chat平台 你是不是也遇到过这些问题:想用大模型但担心数据上传到公有云?试过几个Web聊天界面,不是配置复杂就是响应慢?或者只是单纯想在自己电脑上跑一个真正属于自己的AI对话系统,不依赖网络、不看别人脸色? Clawdbot + Qwen3:32B 这个组合,就是为解决这些实际问题而生的。它不是又一个需要注册账号、绑定邮箱、等审核的SaaS服务,而是一个完全本地运行、数据不出设备、开箱即用的轻量级Web聊天平台。 这里没有复杂的Docker Compose编排,没有动辄半小时的环境搭建,也没有让人头大的证书配置。整个过程只需要三步:装好基础工具、拉起模型服务、启动前端界面。全程在终端敲几行命令,刷新浏览器就能开始对话。 更关键的是,它用的是通义千问最新发布的Qwen3:32B——目前开源领域综合能力最强的中文大模型之一。32B参数规模意味着更强的逻辑推理、更稳的长文本理解、更自然的多轮对话表现。而Clawdbot作为一款专注本地集成的轻量级代理网关,把模

资源高效+高精度识别|PaddleOCR-VL-WEB文档解析全场景适配

资源高效+高精度识别|PaddleOCR-VL-WEB文档解析全场景适配 写在前面 你有没有遇到过这样的情况:一份扫描版PDF里既有密密麻麻的正文、带公式的推导过程,又有跨页表格和手写批注,用传统OCR工具一识别,文字错位、表格散架、公式变乱码——最后还得人工逐字校对,半天时间白忙活? 这不是个别现象。在金融报告、科研论文、古籍档案、多语言合同等真实业务中,文档解析早已不是“把图片转成文字”这么简单。它需要同时理解布局结构、语义逻辑、视觉关系和多语言混排——而这些,正是PaddleOCR-VL-WEB真正发力的地方。 本文不讲抽象架构,不堆参数指标,只聚焦一件事:这个镜像到底能不能在你的日常工作中稳稳跑起来?识别准不准?部署难不难?支持哪些“难搞”的文档? 我用一台搭载RTX 4090D单卡的服务器,从零部署PaddleOCR-VL-WEB,实测了27份真实文档(含中文财报、英文技术手册、日文说明书、阿拉伯语合同、带手写体的实验记录本、含LaTeX公式的学术PDF),全程记录操作路径、关键配置、效果反馈和避坑要点。所有步骤均可复现,