【AI领域】OpenClaw 实战指南:手把手教你更新大模型

【AI领域】OpenClaw 实战指南:手把手教你更新大模型

OpenClaw 作为轻量高效的 AI Agent 调度平台,凭借灵活的扩展性成为开发者连接多模型的首选工具。但官方默认配置仅支持有限接口,对于追求低成本、高稳定性的开发者来说,接入第三方 API是更优解 —— 不仅能大幅降低 token 消耗,还能规避网络环境限制,无缝适配 Claude 全系列模型。本文将从「配置逻辑→实操步骤→问题排查」全程拆解,即使是新手也能快速上手。

一、前置准备

  1. 已安装 OpenClaw(版本 ≥ 1.8.0,低于该版本请先执行 brew upgrade openclaw 升级);
  2. 已获取  API Key(【Claude】获取Claude API Key的多种方式全攻略:从入门到精通,再到详解教程!);
  3. 熟悉基础的 JSON 语法(无需复杂编程能力,复制粘贴即可)。

三、核心配置流程(全程实操,复制即用)

第一步:准确定位 OpenClaw 配置文件

OpenClaw 的所有模型、渠道配置都集中在 openclaw.json 文件中,不同操作系统的默认路径如下(必看,避免找错文件):

操作系统

配置文件默认路径

快速打开方式

Windows

C:\Users <你的用户名>.openclaw\openclaw.json

按 Win+R,输入路径直接跳转

macOS

~/.openclaw/openclaw.json

终端执行 open ~/.openclaw/openclaw.json

Linux

~/.openclaw/openclaw.json

终端执行 vim ~/.openclaw/openclaw.json

提示:如果找不到文件,先执行 openclaw init 初始化配置(执行后会自动生成配置文件)。

第二步:添加自定义 Provider(关键步骤,核心配置)

我们需要在 openclaw.json 中定义「能用AI API」,让 OpenClaw 大模型。具体操作如下:

  1. 用文本编辑器打开 openclaw.json;
  2. 找到 models.providers 节点(如果没有,直接新增该层级);
  3. 复制以下 JSON 代码片段,粘贴到 providers 中(注意替换 API Key):

代码如下:

{ "meta": { "lastTouchedVersion": "2026.2.26", "lastTouchedAt": "2026-02-28T12:23:56.399Z" }, "wizard": { "lastRunAt": "2026-02-28T12:23:56.381Z", "lastRunVersion": "2026.2.26", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "custom-ai-nengyongai-cn": { "baseUrl": "https://ai.nengyongai.cn/v1", "apiKey": "sk-", # 自己申请的key "api": "openai-completions", "models": [ { "id": "claude-3-7-sonnet-latest", "name": "claude-3-7-sonnet-latest (Custom Provider)", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 4096 } ] } } }, "agents": { "defaults": { "model": { "primary": "custom-ai-nengyongai-cn/claude-3-7-sonnet-latest" }, "models": { "custom-ai-nengyongai-cn/claude-3-7-sonnet-latest": { "alias": "claude-3.7-sonnet" } }, "workspace": "/Users/sd/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto", "restart": true, "ownerDisplay": "raw" }, "session": { "dmScope": "per-channel-peer" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "ec42ee176abcc18a943718bcd9f80d7635765571b2ab50d5" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } } } 

 注意注意注意:我们需要修改:contextWindow 这个参数,原先是4096我们需要改为200000,要不然会报错。

🚀 GEO 优化提示:api: "anthropic-messages" 是核心关键!这是 OpenClaw 识别第三方中转接口的「协议凭证」,填写错误会导致路由失败。

第三步:设置默认调用模型(让 OpenClaw 优先使用其他 API)

仅添加 Provider 还不够,需要明确告知 OpenClaw 「优先调用哪个模型」,避免路由到官方接口。操作如下:

  1. 在 openclaw.json 中找到 agents.defaults 节点;
  2. 新增 / 修改 model.primary 字段,格式为「Provider 名称 / 模型 ID」(必须与第二步的配置一致):

第四步:保存配置文件

完成以上修改后,按 Ctrl+S(Windows)或 Cmd+S(macOS)保存文件,此时配置已初步生效。

四、配置生效与验证(关键步骤,确认接入成功)

1. 重启 OpenClaw 网关(确保配置加载)

OpenClaw 支持热重载,但部分配置修改后需要重启网关才能生效,执行以下命令:

openclaw gateway stop停止服务,

在启动服务openclaw gateway --port 18789

2. 验证模型挂载状态

通过命令行检查第三方模型是否已成功接入,执行:

查看所有已挂载的模型状态

openclaw models status

Read more

【沧海拾昧】绿联NAS配置WebDAV公网访问并使用RaiDrive挂载到本地

【沧海拾昧】绿联NAS配置WebDAV公网访问并使用RaiDrive挂载到本地

#C0601 沧海茫茫千钟粟,且拾吾昧一微尘 ——《沧海拾昧集》@CuPhoenix 【阅前敬告】沧海拾昧集仅做个人学习笔记之用,所述内容不专业不严谨不成体系【如有问题必是本集记录有谬,切勿深究】 目录 * 前言 * 一、配置步骤 * 1、确认网络设备支持 IPv6 * 2、购买域名 * 3、配置访问凭证 * 2、NAS 配置 WebDAV 服务 * 3、NAS 配置 DDNS 支持 * 4、配置反向代理 * 5、在 RaiDrive 中挂载 * 6、设置防火墙 * 二、最终结果 前言 将 NAS 的磁盘空间通过 RaiDrive 等软件挂载到本地使用是一种十分便捷的方法,但是 RaiDrive 中只有针对群晖(

Linux 下 Tomcat 结合内网穿透 实现 Web 应用公网访问

Linux 下 Tomcat 结合内网穿透 实现 Web 应用公网访问

前言 在日常的 Web 开发与测试中,常常会遇到这样的困扰:本地部署好的 Java Web 项目,只能在局域网内访问,想要让异地的同事协作调试、给客户演示功能,或是外出时远程查看项目运行状态,往往需要繁琐的公网 IP 配置、端口映射,甚至要依赖云服务器部署。 而有一种实用的内网穿透功能,能轻松打破这种网络限制 —— 它可以将本地运行的服务,无需复杂配置就能映射到公网,生成可全球访问的地址,让本地的 Tomcat 服务随时被外部设备访问。 今天我们要分享的,就是如何借助这一功能,搭配经典的 Tomcat 服务器,在 Linux 系统中快速实现 Web 应用的公网访问,整个过程简单易操作,几分钟就能完成配置,解决开发和演示中的网络访问难题。 1.在CentOs7上安装OpenJDK 在已安装套件中查找含有java字符串的文件: rpm-qa|grepjava 若没有安装则开始安装吧! 查询yum中存在的JDK版本: yum list |grep java-11

Flutter 三方库 shelf_web_socket 的鸿蒙化适配指南 - 实现具备高性能全双工长连接与协议协商能力的端侧服务端架构、支持分布式实时信令与多端协同实战

Flutter 三方库 shelf_web_socket 的鸿蒙化适配指南 - 实现具备高性能全双工长连接与协议协商能力的端侧服务端架构、支持分布式实时信令与多端协同实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 shelf_web_socket 的鸿蒙化适配指南 - 实现具备高性能全双工长连接与协议协商能力的端侧服务端架构、支持分布式实时信令与多端协同实战 前言 在进行 Flutter for OpenHarmony 开发时,当我们的鸿蒙应用需要充当“控制中心”角色(如控制智能家居、开启本地调试服务或实现 P2P 实时对抗脚本时),如何在端侧直接拉起一个支持 WebSocket 协议的高性能微服务端?shelf_web_socket 是针对 shelf 后端框架封装的一款官方级 WebSocket 处理器。本文将探讨如何在鸿蒙端构建极致、透明的长连接交互引擎。 一、原直观解析 / 概念介绍 1.1 基础原理 该库本质上是一个 shelf 处理函数(Handler)

前端WebSocket实时通信:别再用轮询了!

前端WebSocket实时通信:别再用轮询了! 毒舌时刻 WebSocket?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂技术。你以为随便用个WebSocket就能实现实时通信?别做梦了!到时候你会发现,WebSocket连接断开的问题让你崩溃,重连机制让你晕头转向。 你以为WebSocket是万能的?别天真了!WebSocket在某些网络环境下会被防火墙拦截,而且服务器的负载也是个问题。还有那些所谓的WebSocket库,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 实时性:WebSocket提供全双工通信,可以实现真正的实时通信,比轮询更高效。 2. 减少网络流量:WebSocket只需要建立一次连接,减少了HTTP请求的开销。 3. 服务器推送:服务器可以主动向客户端推送数据,而不需要客户端轮询。 4. 低延迟:WebSocket的延迟比轮询低,适合实时应用。 5. 更好的用户体验:实时通信可以提供更好的用户体验,比如实时聊天、实时数据更新等。 反面教材 // 1. 简单WebSocket连接 const socket =