OpenClaw接入模型并基于WebUI完成智能操作

OpenClaw接入自定义模型并基于WebUI完成智能操作

背景介绍

OpenClaw(原 Clawdbot)是一个开源的 AI 代理框架,支持通过配置文件或 GUI 界面进行灵活配置。安装 OpenClaw 后,用户可以通过修改工作目录下的配置文件 openclaw.json 来接入不同的 LLM 模型提供商。

OpenClaw 支持众多主流模型提供商,包括 OpenAI、Anthropic、Moonshot AI(Kimi)、OpenRouter、Vercel AI Gateway、Amazon Bedrock 等。完整的提供商目录可参考官方文档 模型提供商快速入门

要使用自定义的提供商,需要通过 models.providers 配置进行设置。这种方式允许用户接入官方支持列表之外的其他兼容 OpenAI API 或 Anthropic 格式的模型服务。

接入配置说明

核心配置参数解析

OpenClaw 的模型配置主要分为两个部分:models 字段用于定义提供商和模型信息,agents.defaults 用于设置默认使用的模型。

以 Kimi(Moonshot AI)为例,完整的 JSON 配置如下:

{"agents":{"defaults":{"model":{"primary":"moonshot/kimi-k2.5"}}},"models":{"mode":"merge","providers":{"moonshot":{"baseUrl":"https://api.moonshot.ai/v1","apiKey":"${MOONSHOT_API_KEY}","api":"openai-completions","models":[{"id":"kimi-k2.5","name":"Kimi K2.5"}]}}}}
关键参数说明
参数位置说明
primaryagents.defaults.model必填。指定默认使用的主模型,格式为 提供商/模型ID。必须与 providers 中配置的提供商名称和模型 ID 对应
modemodels配置模式,merge 表示合并到现有配置,replace 表示完全替换
providersmodels定义模型提供商的配置集合,每个键值对代表一个提供商

重要提示providers 配置完成后,必须同步配置 agents.defaults.model.primary 字段,否则 OpenClaw 无法知道应该使用哪个模型作为默认主模型。

providers 内部参数说明
参数说明
baseUrl模型 API 的基础 URL 地址
apiKey认证密钥,支持环境变量引用格式 ${ENV_NAME} 或直接填写
apiAPI 类型,通常为 openai-completions 表示兼容 OpenAI 格式
models该提供商支持的模型列表,包含模型的 idname

接入模型 LongCat

LongCat 平台介绍

LongCat 是一个美团开发的大语言模型,同时提供了API 开放平台,提供高性能的通用对话模型和深度思考模型。目前平台支持以下模型:

模型名称API 格式描述
LongCat-Flash-ChatOpenAI/Anthropic高性能通用对话模型
LongCat-Flash-ThinkingOpenAI/Anthropic深度思考模型
LongCat-Flash-Thinking-2601OpenAI/Anthropic升级版深度思考模型
LongCat-Flash-LiteOpenAI/Anthropic高效轻量化 MoE 模型

账号注册与 API Key 获取

  1. 访问 LongCat 开放平台 注册账号
  2. 新用户注册后可获得 500 万 Token 的免费使用额度
  3. 进入 API Keys 页面 创建并获取 API Key
  4. 用量信息页面 可随时查看 Token 消耗情况

完整配置示例

以下配置参考自 LongCat OpenClaw 配置文档,展示了如何完整接入 LongCat 模型:

{"agents":{"defaults":{"model":{"primary":"longCat/LongCat-Flash-Chat"},"models":{"LongCat-Flash-Chat":{}},"workspace":"/Users/user/.openclaw/workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}},"models":{"mode":"merge","providers":{"longCat":{"baseUrl":"https://api.longcat.chat/openai","apiKey":"YOUR_API_KEY_HERE","api":"openai-completions","authHeader":true,"models":[{"id":"LongCat-Flash-Chat","name":"LongCat-Flash-Chat","reasoning":false,"input":["text"],"contextWindow":200000,"maxTokens":8192,"compat":{"maxTokensField":"max_tokens"}}]}}}}

配置说明

  • YOUR_API_KEY_HERE 替换为从 LongCat 官网申请的实际 API Key
  • contextWindow: 20000 表示支持 2 万 Token 的上下文窗口
  • maxTokens: 8192 表示单次响应最大 Token 数
  • 修改保存后配置立即生效,无需重启服务

GUI 界面配置方式

除了直接修改配置文件,也可以通过 Web 控制页面进行可视化配置:

  1. 访问 http://127.0.0.1:18789 打开 OpenClaw Web 控制页面
  2. 进入 Config → Models → Providers
  3. 添加以下配置项:
配置项
Apiopenai-completions
Api Key你的 LongCat API Key
Base Urlhttps://api.longcat.chat/openai
models - idLongCat-Flash-Chat
models - nameLongCat-Flash-Chat

效果演示

1.启动后现实AgentModel为我们自定义的LongCat-Flash

在这里插入图片描述


2.询问具备的能力与使用的模型

在这里插入图片描述


3.完成本地桌面文件查找

在这里插入图片描述

(此处补充实际使用截图)

注意事项

  1. 配置文件位置:OpenClaw 的配置文件位于 ~/.openclaw/openclaw.json
  2. WebUI 访问地址:默认访问地址为 http://127.0.0.1:18789
  3. 通信协议:OpenClaw 使用 WebSocket 进行全双工通信。如需通过 Chrome 开发者工具调试接口,可连接 ws://127.0.0.1:18789/
  4. 配置生效:修改 openclaw.json 后保存即可立即生效,无需重启 Gateway 服务

参考

Read more

前端小白必看 React Router路由配置全攻略(附避坑指南)

前端小白必看 React Router路由配置全攻略(附避坑指南)

前端小白必看 React Router路由配置全攻略(附避坑指南) * 前端小白必看 React Router路由配置全攻略(附避坑指南) * 开篇先扯两句 * 我当年被路由坑到想转行的黑历史 * React Router到底是个啥玩意儿 * 它和传统多页面应用路由的区别 * 主要版本演变历程得知道 * 核心功能拆开揉碎了讲 * BrowserRouter和HashRouter选哪个不纠结 * Routes和Route怎么搭配使用 * useNavigate钩子实现编程式导航 * useLocation获取当前路由信息 * useParams拿动态路由参数 * Outlet实现嵌套路由布局 * 这玩意儿优缺点得拎清楚 * 优点这块儿真香 * 缺点也得认 * 和Vue Router对比一下 * 和Next.js内置路由比呢 * 实际项目里咋用才不翻车 * 后台管理系统路由权限控制 * 登录跳转记住用户原本想访问

AI时代前端之路:从“代码执行者”到“智能协作架构师”

AI时代前端之路:从“代码执行者”到“智能协作架构师”

✅ 最新技术适配:聚焦AI与前端融合的核心趋势(AI原生开发、边缘AI、多模态交互),贴合当前主流工具链(GitHub Copilot、Cursor、Figma AI等) ✅ 通俗易懂:用“副驾驶”“原料加工”等白话比喻拆解复杂逻辑,无专业黑话,零基础也能理解 ✅ 条理清晰:先明确前端未来方向,再拆解AI高效工作方法,最后给出能力升级路径,逻辑闭环 ✅ 核心目标:帮前端开发者搞懂“AI时代该怎么定位自己”“如何用AI提效不被替代”“未来3年该学什么” 一、先明确核心结论:AI不是替代者,而是前端的“超级副驾驶” 2026年的前端行业,AI已经从“可选工具”变成“必备基建”——但这绝不是“前端要被淘汰”的信号,反而让前端的核心价值从“写代码”上移到了“做决策、控体验、搭架构”。 用一个形象的比喻理解: * 以前的前端是“独自开车的司机”

前端新人避坑指南:搞懂offsetX和pageX这些坐标属性别再写bug了

前端新人避坑指南:搞懂offsetX和pageX这些坐标属性别再写bug了

前端新人避坑指南:搞懂offsetX和pageX这些坐标属性别再写bug了 * 前端新人避坑指南:搞懂offsetX和pageX这些坐标属性别再写bug了 * 开篇先唠唠这玩意儿为啥总让人头大 * 这几个兄弟到底都是干啥的 * offsetX和offsetY这对小情侣 * pageX和pageY这两个老实人 * clientX和clientY这对视口党 * offsetHeight和offsetParent这些尺寸属性也得懂 * offsetLeft和offsetTop的实际用处 * getBoundingClientRect:更强大的替代品 * 这些属性各自的优缺点得心里有数 * 实际开发中这些玩意儿都用在哪 * 自定义拖拽功能 * 鼠标跟随效果 * 画布类应用的坐标转换 * 弹窗位置计算 * 踩坑了怎么排查别慌 * 第一步:console.log大法 * 检查元素定位 * iframe嵌套问题 * 移动端touch事件和mous

【全网最全・保姆级】Stable Diffusion WebUI Windows 部署 + 全套报错终极解决方案

大家好,我是在部署 SD WebUI 过程中把几乎所有坑都踩了一遍的选手,从 Git 报错、模块缺失、依赖冲突到虚拟环境异常,全部踩完。今天把完整安装流程 + 我遇到的所有真实错误 + 一行一解全部整理出来,写成一篇能直接发 ZEEKLOG 的完整文章。 一、前言 Stable Diffusion WebUI 是目前 AI 绘画最主流的本地部署工具,但 Windows 环境下因为 Python 版本、虚拟环境、Git 仓库、依赖包、CLIP 编译 等问题,90% 的新手都会启动失败。本文包含: * 标准 Windows 一键部署流程 * 我真实遇到的 10+ 种报错 * 每一种报错的 原因 + 直接复制可用的命令 * 最终测试出图提示词(