用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案
这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。

先说结论

如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打:

  • OpenClaw 负责 Agent 编排(工具、文件、会话、渠道)
  • OpenAI Codex 5.3 负责核心编码能力
  • Feishu 作为消息入口(随时远程下指令)
  • 本地 Workspace 放在 G:\claw,项目资产可控

这套的性价比点在于:

  1. 不需要重搭一整套复杂平台
  2. Codex 5.3 编码质量明显高于普通通用模型
  3. 本地文件 + Git 提交链路完整,能直接干活

一、踩坑起点:OAuth 不是“登录成功 = 配置完成”

我最早遇到的报错是:

OpenAI OAuth failed TypeError: fetch failed 

这个报错在 Windows 上挺常见。关键点:

  • 回调 URL 里必须只提取 code= 后面到 & 之前的字符串
  • 不要把整条 http://localhost:1455/auth/callback?... 贴进去

正确做法示例:

ac_xxx...(只贴这一段 code) 

二、Channel / Hooks 阶段别纠结

Onboarding 里会问很多项,比如:

  • 选哪个 channel
  • hooks 要不要开

我的经验:

  • 已经有飞书就选 Skip for now(不影响已有连接)
  • hooks 初期也选 Skip for now(先把主链路跑通)

先追求“可用”,再追求“炫技自动化”。


三、模型显示很多,不等于你都能用

在 model picker 里我一开始也困惑:

  • 为啥我登录的是 ChatGPT,却看到一堆 openrouter 模型?

因为 OpenClaw 会列出多个 provider 的模型池。能看到 ≠ 有权限。

真正目标应该选:

openai-codex/gpt-5.3-codex 

而不是:

openrouter/openai/gpt-5.3-codex 

后者通常还会出现 auth missing


四、最关键配置:默认模型和工作目录

最终确认有效的配置结构是 agents.defaults.*

1) 把默认模型切到 Codex 5.3

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' } } } 

2) 把默认工作目录固定到 G:\claw

agents: { defaults: { workspace: 'G:\\claw' } } 

3) 保留备用模型(推荐)

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' }, models: { 'openai-codex/gpt-5.3-codex': {}, 'qwen-portal/coder-model': {}, 'qwen-portal/vision-model': {} }, workspace: 'G:\\claw' } } 

这样默认走 Codex,Qwen 作为备胎,视觉任务也不丢。


五、日志怎么读:一眼判断系统是否健康

看这几类信息就够了:

  1. agent model: 是否已是 openai-codex/gpt-5.3-codex
  2. Feishu websocket 是否 started / ready
  3. Web 控制 UI 是否 connected
  4. 是否能成功写文件并提交 git

我最后看到自动 commit 成功,说明整条链路已经闭环:

Feishu -> OpenClaw -> Codex -> 文件写入 -> Git 

六、一个常见告警:feishu 插件重复

我日志里一直有:

duplicate plugin id detected: feishu 

原因通常是 plugins.entries.feishuplugins.installs.feishu 同时声明。

处理建议:

  • 保留 installs.feishu
  • 避免在 entries 里重复声明 feishu

这不是致命问题,但建议清理,避免后续升级时配置覆盖。


七、为什么说这是“性价比方案”

我现在的实际体验:

  • 能力:Codex 5.3 的代码质量、上下文稳定性都在线
  • 效率:飞书里直接下任务,回家再看结果
  • 可控:项目全在 G:\claw,数据边界明确
  • 扩展性:后面可继续开 hooks、browser、自动化 pipeline

一句话:

不是最花哨,但是真的好用,且每一步都可解释、可调试、可迭代。

八、给后来者的最短 checklist

[ ] openclaw onboard --auth-choice openai-codex [ ] OAuth 回调只粘 code,不粘完整 URL [ ] model primary 设为 openai-codex/gpt-5.3-codex [ ] workspace 设为 G:\claw [ ] Feishu 连通后先保持 Skip for now [ ] 清理 feishu duplicate plugin 声明 [ ] 重启后检查 gateway/log/model 是否生效 

如果你跟我一样是“想快速拥有一个能写代码、能落地文件、能远程控制”的个人 AI 工程助手,这套 OpenClaw + Codex 5.3,值得直接上手。

Read more

开源 AI 工具 OpenClaw 安装详解,Windows 本地部署超简单

开源 AI 工具 OpenClaw 安装详解,Windows 本地部署超简单

2026 年开源圈热度很高的 AI 工具 OpenClaw,也被大家叫做 “小龙虾”,凭借本地运行、操作简单、能自动完成电脑任务等特点,受到不少办公用户和技术爱好者欢迎。和普通 AI 聊天工具不同,OpenClaw 可以直接根据自然语言指令,自动操作电脑、处理文件、执行重复工作,让日常办公效率明显提升。 不少想体验的朋友,都卡在环境配置、命令行操作这些步骤上。这篇文章就针对 Windows 用户,整理一套完整的一键部署流程,不用配置 Python、Node.js,不用敲代码,跟着步骤走就能快速搭建好自己的本地 AI 智能体。后续还会更新更多进阶用法和实用技巧,建议收藏方便回看。 一、OpenClaw 小龙虾有哪些亮点 OpenClaw 之所以受欢迎,核心是解决了普通 AI 工具门槛高、隐私顾虑、功能不够实用等问题,整体使用体验更贴近日常需求: * 本地运行,数据不联网,

医疗AI多智能体资源调度:用Python构建高性能MCU资源池

医疗AI多智能体资源调度:用Python构建高性能MCU资源池

作者 | Allen_lyb 发布时间 | 2026年1月 标签 | #Python #异步编程 #医疗AI #资源调度 #系统架构 引言 最近在重构我们的医疗AI服务平台时,遇到了一个典型的多智能体资源争用问题。想象一下这样的场景: * 急诊风险预警智能体检测到患者可能发生脓毒症,需要立即调用GPU进行推理 * 同时,影像分析智能体正在处理一批CT扫描,也需要GPU资源 * 质控智能体要分析医嘱合规性,需要调用大语言模型接口 * 病历总结智能体正在为出院患者生成报告 所有智能体都在"抢"有限的GPU卡、模型并发槽位、API调用额度。如果让每个智能体自己管理资源抢占,结果就是: 1. 资源利用不均:有的GPU卡空闲,有的被排队挤爆 2. 优先级混乱:急诊任务可能被常规任务阻塞 3. 无法审计:谁占用了什么资源?为什么失败?说不清楚 这就是我们需要一个中央调度器的原因。在多方会议系统中,这类组件被称为MCU(多点控制单元)

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地 摘要:世界模型(World Model)作为连接AI感知、决策与行动的核心枢纽,正成为突破通用人工智能(AGI)瓶颈的关键技术。本文从概念溯源、理论基础出发,系统剖析世界模型的技术架构、核心分类与实现方法,结合2024-2026年最新研究成果(如LeCun团队潜在动作世界模型、DIAMOND扩散模型)与产业落地案例,深入探讨其在强化学习、游戏开发、自动驾驶、机器人等领域的应用价值,最后梳理当前技术挑战并展望未来研究方向。全文兼顾学术深度与工程实践,为AI研究者与技术从业者提供全面的世界模型知识体系。 一、引言:从“符号拟合”到“世界理解”,AI的认知革命 1.1 大语言模型的认知瓶颈 自ChatGPT掀起大模型浪潮以来,大语言模型(LLM)凭借海量文本数据的统计拟合能力,在语义理解、内容生成、逻辑推理等领域展现出惊人实力。但在杨立昆、李飞飞等顶尖学者眼中,当前LLM仍是“

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

前言:从"能生成"到"能长期跑"的工程级大模型 大模型产业落地阶段,工程交付稳定性与长时 Agent 运行效率成为核心衡量标准,GLM-4.7 与 MiniMax M2.1 作为国产模型两条差异化成熟路线的代表,跳出单轮生成质量局限,聚焦真实场景长期稳定运行能力。AI Ping 平台整合多供应商资源,实现两款旗舰模型免费开放与统一调度,通过标准化测试、可视化看板与智能路由,为用户搭建从选型到落地的便捷桥梁。 呼朋唤友薅羊毛,Token白给不限量! 🎁AI Ping(aiping.cn)邀友福利来袭!邀请好友完成注册,双方各得 20 元平台算力点,所有模型及供应商全场通用,邀友无上限、福利赚不停,赶紧分享解锁双重福利~https://aiping.cn/#?channel_partner_