OpenClaw接入模型并基于WebUI完成智能操作

OpenClaw接入自定义模型并基于WebUI完成智能操作

背景介绍

OpenClaw(原 Clawdbot)是一个开源的 AI 代理框架,支持通过配置文件或 GUI 界面进行灵活配置。安装 OpenClaw 后,用户可以通过修改工作目录下的配置文件 openclaw.json 来接入不同的 LLM 模型提供商。

OpenClaw 支持众多主流模型提供商,包括 OpenAI、Anthropic、Moonshot AI(Kimi)、OpenRouter、Vercel AI Gateway、Amazon Bedrock 等。完整的提供商目录可参考官方文档 模型提供商快速入门

要使用自定义的提供商,需要通过 models.providers 配置进行设置。这种方式允许用户接入官方支持列表之外的其他兼容 OpenAI API 或 Anthropic 格式的模型服务。

接入配置说明

核心配置参数解析

OpenClaw 的模型配置主要分为两个部分:models 字段用于定义提供商和模型信息,agents.defaults 用于设置默认使用的模型。

以 Kimi(Moonshot AI)为例,完整的 JSON 配置如下:

{"agents":{"defaults":{"model":{"primary":"moonshot/kimi-k2.5"}}},"models":{"mode":"merge","providers":{"moonshot":{"baseUrl":"https://api.moonshot.ai/v1","apiKey":"${MOONSHOT_API_KEY}","api":"openai-completions","models":[{"id":"kimi-k2.5","name":"Kimi K2.5"}]}}}}
关键参数说明
参数位置说明
primaryagents.defaults.model必填。指定默认使用的主模型,格式为 提供商/模型ID。必须与 providers 中配置的提供商名称和模型 ID 对应
modemodels配置模式,merge 表示合并到现有配置,replace 表示完全替换
providersmodels定义模型提供商的配置集合,每个键值对代表一个提供商

重要提示providers 配置完成后,必须同步配置 agents.defaults.model.primary 字段,否则 OpenClaw 无法知道应该使用哪个模型作为默认主模型。

providers 内部参数说明
参数说明
baseUrl模型 API 的基础 URL 地址
apiKey认证密钥,支持环境变量引用格式 ${ENV_NAME} 或直接填写
apiAPI 类型,通常为 openai-completions 表示兼容 OpenAI 格式
models该提供商支持的模型列表,包含模型的 idname

接入模型 LongCat

LongCat 平台介绍

LongCat 是一个美团开发的大语言模型,同时提供了API 开放平台,提供高性能的通用对话模型和深度思考模型。目前平台支持以下模型:

模型名称API 格式描述
LongCat-Flash-ChatOpenAI/Anthropic高性能通用对话模型
LongCat-Flash-ThinkingOpenAI/Anthropic深度思考模型
LongCat-Flash-Thinking-2601OpenAI/Anthropic升级版深度思考模型
LongCat-Flash-LiteOpenAI/Anthropic高效轻量化 MoE 模型

账号注册与 API Key 获取

  1. 访问 LongCat 开放平台 注册账号
  2. 新用户注册后可获得 500 万 Token 的免费使用额度
  3. 进入 API Keys 页面 创建并获取 API Key
  4. 用量信息页面 可随时查看 Token 消耗情况

完整配置示例

以下配置参考自 LongCat OpenClaw 配置文档,展示了如何完整接入 LongCat 模型:

{"agents":{"defaults":{"model":{"primary":"longCat/LongCat-Flash-Chat"},"models":{"LongCat-Flash-Chat":{}},"workspace":"/Users/user/.openclaw/workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}},"models":{"mode":"merge","providers":{"longCat":{"baseUrl":"https://api.longcat.chat/openai","apiKey":"YOUR_API_KEY_HERE","api":"openai-completions","authHeader":true,"models":[{"id":"LongCat-Flash-Chat","name":"LongCat-Flash-Chat","reasoning":false,"input":["text"],"contextWindow":200000,"maxTokens":8192,"compat":{"maxTokensField":"max_tokens"}}]}}}}

配置说明

  • YOUR_API_KEY_HERE 替换为从 LongCat 官网申请的实际 API Key
  • contextWindow: 20000 表示支持 2 万 Token 的上下文窗口
  • maxTokens: 8192 表示单次响应最大 Token 数
  • 修改保存后配置立即生效,无需重启服务

GUI 界面配置方式

除了直接修改配置文件,也可以通过 Web 控制页面进行可视化配置:

  1. 访问 http://127.0.0.1:18789 打开 OpenClaw Web 控制页面
  2. 进入 Config → Models → Providers
  3. 添加以下配置项:
配置项
Apiopenai-completions
Api Key你的 LongCat API Key
Base Urlhttps://api.longcat.chat/openai
models - idLongCat-Flash-Chat
models - nameLongCat-Flash-Chat

效果演示

1.启动后现实AgentModel为我们自定义的LongCat-Flash

在这里插入图片描述


2.询问具备的能力与使用的模型

在这里插入图片描述


3.完成本地桌面文件查找

在这里插入图片描述

(此处补充实际使用截图)

注意事项

  1. 配置文件位置:OpenClaw 的配置文件位于 ~/.openclaw/openclaw.json
  2. WebUI 访问地址:默认访问地址为 http://127.0.0.1:18789
  3. 通信协议:OpenClaw 使用 WebSocket 进行全双工通信。如需通过 Chrome 开发者工具调试接口,可连接 ws://127.0.0.1:18789/
  4. 配置生效:修改 openclaw.json 后保存即可立即生效,无需重启 Gateway 服务

参考

Read more

Python快速落地的临床知识问答与检索项目(2025年9月教学配置部分)

Python快速落地的临床知识问答与检索项目(2025年9月教学配置部分)

项目概述与技术选型 本项目定位为临床辅助决策支持工具,而非替代临床诊断的独立系统,旨在解决医疗行业两大核心痛点:一是医学知识更新速率加快,2025 年临床指南年均更新量较 2020 年增长 47%,传统知识管理方式难以同步;二是科室规范呈现碎片化分布,不同院区、亚专科的诊疗流程存在差异,导致知识检索效率低下。技术路线采用 RAG 知识库 + ChatFlow 多轮对话 + 工具节点对接 的三层架构,通过整合指南文献、临床路径和院内 SOP 文档,满足门诊快速问诊、病房随访问答及科室知识库精准检索需求,最终实现医疗信息可及性提升 30%、基层医生决策效率提高 25% 的核心价值目标[1]。 技术栈选型分析 1. 大语言模型:领域专精与多模态融合 临床知识问答核心模型需兼顾专业性与部署灵活性。2025 年主流选型包括: * Chimed - GPT:基于 Ziya - V2 架构,通过预训练、

By Ne0inhk

BERT模型HTTP接口调用教程:Python请求示例与避坑指南

BERT模型HTTP接口调用教程:Python请求示例与避坑指南 1. 什么是BERT智能语义填空服务 你有没有遇到过这样的场景:写文案时卡在某个词上,反复推敲却总觉得不够贴切;校对文章时发现一句语法别扭,但又说不清问题在哪;甚至教孩子学古诗,看到“床前明月光,疑是地[MASK]霜”这种句子,想确认填“上”还是“下”更符合原意——这时候,一个真正懂中文语义的AI助手就显得特别实在。 BERT智能语义填空服务,就是这样一个“中文语义直觉”的具象化工具。它不生成长篇大论,也不做泛泛而谈的总结,而是专注一件事:在一句话中,精准猜出被 [MASK] 遮住的那个词,而且给出多个合理选项和它们的可信程度。它不是靠关键词匹配,也不是靠简单统计,而是像人一样,通读整句话、理解前后逻辑、结合文化常识,再做出判断。 比如输入“他做事一向[MASK],从不拖泥带水”,它大概率会返回“利落(87%)”“干脆(

By Ne0inhk
2025年中秋月亮只有94.91%圆?Python告诉你真相

2025年中秋月亮只有94.91%圆?Python告诉你真相

前言: 又是一年中秋节,祝大家中秋快乐!作为程序员的我们,还有谁和我一样在外奔波而不能回家,想和大家说一声辛苦啦!既然不能回家吃月饼、赏明月,那我是不是也能用代码写下属于自己的中秋记忆,为朋友们送去我们自己特殊的中秋祝福,让技术和传统节日碰撞出新的火花。 本文目录: * 一、月相计算:今晚的月亮到底有多圆 * 1. 月相可视化 * 二、月饼切分算法:公平分配的艺术 * 1. 经典切分策略 * 2. 进阶问题:不过圆心的切分 * 三、诗词生成:中秋凑诗 * 四、月球数据可视化:用数据看月亮 * 1. 先画月球表面:模拟环形山地形 * 2. 再做月相动画:看一个月月亮怎么变 * 五、中秋快乐,记得吃月饼🥮 * 写在最后 一、月相计算:今晚的月亮到底有多圆 今天是中秋节,刷朋友圈的时候突然想到一个问题:今年中秋的月亮到底有多圆?作为Python开发者,我决定用代码来算一算。顺便整理了几个和中秋相关的有趣项目,

By Ne0inhk

python八股文汇总(持续更新版)

python装饰器 一、装饰器是什么? 装饰器是Python中一种"化妆师",它能在不修改原函数代码的前提下,给函数动态添加新功能。 * 本质:一个接收函数作为参数,并返回新函数的工具。 * 作用:像给手机贴膜,既保护屏幕(原函数),又新增防摔功能(装饰逻辑)。 二、核心原理 1. 函数是"对象":Python中函数可以像变量一样传递,这是装饰器的基础。 2. 闭包机制:装饰器通过嵌套函数(闭包)保留原函数,并包裹新功能。 工作流程: 1. 你调用被装饰的函数(如hello())。 2. Python实际执行的是装饰器加工后的新函数。 3. 新函数先执行装饰器添加的逻辑(如权限检查),再执行原函数。 三、常见用途 场景 作用 生活类比 权限验证 检查用户是否登录再执行函数

By Ne0inhk