Docker 部署 OpenClaw 踩坑实录:Web UI 访问、飞书配对及自定义模型配置

最近在使用 Docker 部署 OpenClaw 时遇到了一些典型的环境与配置问题。为了方便大家排查,我将这几个核心问题的表现、解决思路以及如何接入公司自己配置的大模型节点进行了梳理。


一、问题一:安装成功但 Web UI 无法访问

1. 现象描述

  • 终端提示安装成功,但在浏览器中访问http://127.0.0.1:18789 时,页面提示连接被重置。
  • 使用具体的局域网 IP(如192.168.5.30:18789)访问时,同样提示无法连接或无法访问此网站。
alt

2. 原因分析

  • 在排除了代理服务器和系统防火墙的干扰后,根本原因在于 OpenClaw 核心网关的跨域访问(CORS)安全机制。
  • 系统默认包含白名单配置,它的作用是告诉 OpenClaw 的核心网关:“只有从这些特定的网址(域名或IP)打开的控制台网页,才被允许连接我并下发控制指令”。

3. 解决方案

修改 OpenClaw 的配置文件~/.opneclaw/openclaw.json,在gateway.controlUi.allowedOrigins 节点中加上* 作为通配符(或添加你实际访问的 URL)。具体配置参考如下:

"gateway": {
  "port": 18789,
  "mode": "local",
  "bind": "lan",
  "controlUi": {
    "allowedOrigins": [
      "*",
    ],
    "dangerouslyDisableDeviceAuth": true
  }
}


二、问题二:飞书机器人配对失败与配对码刷新

1. 现象描述

  • 在系统内设置了飞书 Channel 后,通过飞书机器人发送消息没反应,系统提示未配对,并给了一个配对码。
  • 给飞书发送多次消息,配对码会不断发生改变。
alt

2. 解决方案

由于多次发消息导致配对码不断刷新,我们需要通过后台 CLI 指令直接查看并抓取最新、最准确的配对请求进行手动授权。

  1. 查看最新的飞书配对请求:执行docker compose run --rm openclaw-cli pairing list feishu 命令查看当前的配对列表。
alt
  1. 获取正确配对码:在输出的表格中,找到最新的配对码(例如:ZLX3M556)。
  2. 执行授权配对:拿到正确的配对码后,执行docker compose run --rm openclaw-cli pairing approve feishu ZLX3M556 命令通过审批。当日志输出类似Approved feishu sender ou_... 后,即代表授权成功。
alt

三、进阶配置:接入公司自行配置的大模型

OpenClaw 支持灵活地接入公司自己配置的大模型节点。配置 Agent 的方法同样是修改~/.openclaw/openclaw.json 文件。

以下是接入公司自行配置的、提供 MiniMax 模型的高速自定义节点的配置示例:

{
  "agents": {
    "defaults": {
      "model": "yuxiaor/MiniMax-M2.7-highspeed"
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "yuxiaor": {
        "api": "openai-completions",
        "baseUrl": "http://xxxxxxxxxxx/v1",
        "apiKey": "your key",
        "models": [
          { "id": "MiniMax-M2.7-highspeed", "name": "MiniMax 2.7 highspeed" }
        ]
      }
    }
  }
}

配置解析:

  • 在models.providers 节点下自定义公司自行配置的节点名称(如yuxiaor),并将其 API 格式指定为兼容性最好的openai-completions。
  • 填入公司配置节点提供的baseUrl和对应的apiKey。
  • 在agents.defaults.model 中,将默认模型指向刚才声明的节点与模型名称(如yuxiaor/MiniMax-M2.7-highspeed)。这样配置并重启后,OpenClaw 默认就会调用公司配置的模型来进行回复了。
alt

本文由 mdnice 多平台发布

Read more

前端+AI:大厂前端岗位JD——总结前端AI学习路线

前端+AI:大厂前端岗位JD——总结前端AI学习路线

背景 现在AI技能是求职的默认必备技能,不管是传统的前后端项目还是现在AI潮流新涌出的AI应用开发工程师、AI Agent工程师以及最顶的AI 算法工程师,笔者为前端岗位,秋招投递了15+互联网大厂,收获3家大厂Offer(快手、京东、拼多多),下面聊聊个人对面试中的AI的一些idea: 1.大厂AI布局 2.透过JD看AI 总结(通过JD总结要学什么) 前端基础JS&算法、React&Vue框架、Vite、Monorepo、Pnpm工程化、性能优化、主流(微前端、SSR、大前端)仍为基础,全栈+AI是亮点,前端&AI学习: 一、前端AI体系架构总览 从这些JD可以看出,前端AI已经从“用AI做页面”升级为AI Native 前端,核心是: 前端开发者不再只是UI渲染层,

从零开始学 Spring Boot:小白也能轻松上手的 Java Web 开发全指南

从零开始学 Spring Boot:小白也能轻松上手的 Java Web 开发全指南 🌟 本文专为零 Java Web 基础的学习者设计——不假设你会 Servlet,不默认你懂 Maven,连 pom.xml 都会逐行解释。 ① 技术栈用途介绍:Spring Boot 到底是“谁”?能帮你做什么? 想象你是一家奶茶店老板,想开发一个「线上点单小程序」: * 需要用户登录(安全) * 要展示菜单(页面/接口) * 要下单并存入数据库(数据操作) * 还得快速上线、方便改菜单(开发效率) 传统 Java Web 开发就像自己盖房子:先打地基(Servlet 容器)、砌墙(配置 web.xml)、装门窗(

实测GLM-4.6V-Flash-WEB的OCR能力:复杂界面表现如何

实测GLM-4.6V-Flash-WEB的OCR能力:复杂界面表现如何 你有没有遇到过这样的情况:一张Windows安装界面截图,用传统OCR工具能识别出“下一步”“修复计算机”几个字,但完全不知道哪个是主操作按钮、哪个是隐藏入口、齿轮图标代表什么——更别说判断“点击哪里能跳过联网步骤”了。这次我们不聊理论,直接上手实测智谱最新开源的 GLM-4.6V-Flash-WEB,在真实复杂系统界面中跑一遍它的OCR理解力:它到底能不能看懂按钮背后的意图?面对中英混排、图标+文字、模糊截图、多分辨率窗口,它的表现稳不稳?结果可能比你预想的更实在。 1. 测试准备:三类典型复杂界面样本 要验证一个视觉模型的真实OCR能力,不能只靠标准印刷体测试图。我们选了三类微PE团队日常高频接触、也是传统OCR最容易翻车的界面类型,全部来自真实系统环境截图(非合成图): 1.1 样本说明与采集方式 * 样本A:Windows 11 安装向导(中文版) 分辨率1920×1080,含动态阴影、半透明按钮、右下角电源图标、