用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案
这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。

先说结论

如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打:

  • OpenClaw 负责 Agent 编排(工具、文件、会话、渠道)
  • OpenAI Codex 5.3 负责核心编码能力
  • Feishu 作为消息入口(随时远程下指令)
  • 本地 Workspace 放在 G:\claw,项目资产可控

这套的性价比点在于:

  1. 不需要重搭一整套复杂平台
  2. Codex 5.3 编码质量明显高于普通通用模型
  3. 本地文件 + Git 提交链路完整,能直接干活

一、踩坑起点:OAuth 不是“登录成功 = 配置完成”

我最早遇到的报错是:

OpenAI OAuth failed TypeError: fetch failed 

这个报错在 Windows 上挺常见。关键点:

  • 回调 URL 里必须只提取 code= 后面到 & 之前的字符串
  • 不要把整条 http://localhost:1455/auth/callback?... 贴进去

正确做法示例:

ac_xxx...(只贴这一段 code) 

二、Channel / Hooks 阶段别纠结

Onboarding 里会问很多项,比如:

  • 选哪个 channel
  • hooks 要不要开

我的经验:

  • 已经有飞书就选 Skip for now(不影响已有连接)
  • hooks 初期也选 Skip for now(先把主链路跑通)

先追求“可用”,再追求“炫技自动化”。


三、模型显示很多,不等于你都能用

在 model picker 里我一开始也困惑:

  • 为啥我登录的是 ChatGPT,却看到一堆 openrouter 模型?

因为 OpenClaw 会列出多个 provider 的模型池。能看到 ≠ 有权限。

真正目标应该选:

openai-codex/gpt-5.3-codex 

而不是:

openrouter/openai/gpt-5.3-codex 

后者通常还会出现 auth missing


四、最关键配置:默认模型和工作目录

最终确认有效的配置结构是 agents.defaults.*

1) 把默认模型切到 Codex 5.3

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' } } } 

2) 把默认工作目录固定到 G:\claw

agents: { defaults: { workspace: 'G:\\claw' } } 

3) 保留备用模型(推荐)

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' }, models: { 'openai-codex/gpt-5.3-codex': {}, 'qwen-portal/coder-model': {}, 'qwen-portal/vision-model': {} }, workspace: 'G:\\claw' } } 

这样默认走 Codex,Qwen 作为备胎,视觉任务也不丢。


五、日志怎么读:一眼判断系统是否健康

看这几类信息就够了:

  1. agent model: 是否已是 openai-codex/gpt-5.3-codex
  2. Feishu websocket 是否 started / ready
  3. Web 控制 UI 是否 connected
  4. 是否能成功写文件并提交 git

我最后看到自动 commit 成功,说明整条链路已经闭环:

Feishu -> OpenClaw -> Codex -> 文件写入 -> Git 

六、一个常见告警:feishu 插件重复

我日志里一直有:

duplicate plugin id detected: feishu 

原因通常是 plugins.entries.feishuplugins.installs.feishu 同时声明。

处理建议:

  • 保留 installs.feishu
  • 避免在 entries 里重复声明 feishu

这不是致命问题,但建议清理,避免后续升级时配置覆盖。


七、为什么说这是“性价比方案”

我现在的实际体验:

  • 能力:Codex 5.3 的代码质量、上下文稳定性都在线
  • 效率:飞书里直接下任务,回家再看结果
  • 可控:项目全在 G:\claw,数据边界明确
  • 扩展性:后面可继续开 hooks、browser、自动化 pipeline

一句话:

不是最花哨,但是真的好用,且每一步都可解释、可调试、可迭代。

八、给后来者的最短 checklist

[ ] openclaw onboard --auth-choice openai-codex [ ] OAuth 回调只粘 code,不粘完整 URL [ ] model primary 设为 openai-codex/gpt-5.3-codex [ ] workspace 设为 G:\claw [ ] Feishu 连通后先保持 Skip for now [ ] 清理 feishu duplicate plugin 声明 [ ] 重启后检查 gateway/log/model 是否生效 

如果你跟我一样是“想快速拥有一个能写代码、能落地文件、能远程控制”的个人 AI 工程助手,这套 OpenClaw + Codex 5.3,值得直接上手。

Read more

疆鸿智能EtherCAT转DeviceNet,发那科机器人融入倍福的“焊接红娘”

疆鸿智能EtherCAT转DeviceNet,发那科机器人融入倍福的“焊接红娘”

疆鸿智能EtherCAT转DeviceNet,发那科机器人融入倍福的“焊接红娘” 引言 在汽车制造这样高度自动化、节拍紧凑的生产环境中,各类先进的机器人、PLC以及执行机构往往来自不同厂商,采用不同的总线协议。这种异构网络的“沟通”问题,成为了制约产线柔性和稳定性的关键瓶颈。近期,在某汽车制造厂的车门及配件焊接工段优化项目中,我们成功部署了疆鸿智能EtherCAT转DeviceNet协议转换网关(型号:JH-ECT-MDVN),实现了以倍福(Beckhoff)PLC为主站,通过EtherCAT网络,对发那科(FANUC)机器人(DeviceNet从站)进行精准、高效的实时控制。本文将站在一线调试工程师的视角,深入剖析该网关在设备通讯中所扮演的核心角色,并总结其带来的工程价值。  项目背景:当“高速总线”遇上“成熟节点” 该工段原有的控制系统采用倍福TwinCAT PLC作为主控大脑,其优势在于EtherCAT通讯的高速性与同步性,非常适合多轴联动和快速逻辑处理。然而,工段内的多台发那科焊接机器人,其标准配置的通讯接口为DeviceNet。作为一款成熟且稳定的现场总线,Devic

远程配置 VsCode:Github Copilot 安装成功却无法使用?细节避坑

远程配置 VsCode 使用 GitHub Copilot 的避坑指南 当 Copilot 安装后无法正常使用时,常见问题集中在账户授权、网络环境、配置冲突三方面。以下是关键排查步骤和避坑细节: 一、账户授权问题(最常见) 1. 检查登录状态 * 在 VsCode 左下角点击账号图标 → 确认已登录 GitHub 账户 * 若显示 Sign in to use GitHub Copilot,需重新授权 * 避坑点:确保登录账户与 Copilot 订阅账户一致(个人版/企业版) * 选择 GitHub.com → 登录方式选 HTTPS → 完成设备授权流程 * 避坑点:企业用户需开启 SSO 授权(登录后执行 gh

理想、小鹏争相发力汽车机器人,为啥都抢着做?

理想、小鹏争相发力汽车机器人,为啥都抢着做?

最近几年,伴随着AI科技的高速发展,各家企业都在纷纷布局具身智能,就在近期,理想、小鹏都在争相发力汽车机器人,为什么会这样?他们抢着做的原因是啥? 一、理想、小鹏争相发力汽车机器人 据界面新闻的报道,试图从硬件参数竞赛与价格战泥潭中抽身的汽车制造商们,正在把筹码押向全新的AI赌注。它们希望打造出一种媲美科幻电影,具备主动感知与服务能力的“汽车机器人”。这场转向不仅关乎技术升级,也被视为向资本市场讲述新一轮增长故事的关键。 理想汽车CEO李想日前发文称,人工智能正经历从Chatbot(聊天机器人)向Agent(智能体)进化。过去AI工具更多提供建议,但真正进入生活和用于生产和生活,它必须能够行动。他认为,汽车本质上是一个在物理世界移动的机器人,应当像司机一样理解用户需求、主动提供服务。 要实现这一愿景,车辆必须同时具备意图理解与物理执行能力,这也意味着目前独立运作的两套系统需要打通,即负责交互与服务的智能座舱,以及负责感知与控制的智能驾驶。只有形成从决策到控制的完整链路,“汽车机器人”才具备落地现实基础。 小鹏汽车CEO何小鹏在内部讲话中也给出了相似判断。据36氪报道,何小

AI绘画新选择:灵感画廊极简环境配置指南

AI绘画新选择:灵感画廊极简环境配置指南 获取更多AI镜像 想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。 1. 环境准备:快速开始前的准备工作 灵感画廊基于Stable Diffusion XL 1.0构建,为你提供一个沉浸式的艺术创作体验。在开始之前,确保你的设备满足以下基本要求: 硬件要求: * NVIDIA显卡(建议8GB以上显存) * 至少16GB系统内存 * 20GB可用磁盘空间(用于模型文件和生成作品) 软件环境: * 支持CUDA的显卡驱动 * Python 3.8或更高版本 * 基本的命令行操作知识 不用担心,即使你是第一次接触AI绘画,按照本指南也能顺利完成环境配置。整个过程就像搭积木一样简单,我们会一步步带你完成。 2. 快速安装:一键部署灵感画廊 灵感画廊的安装过程非常简洁,只需要几个简单的步骤。我们提供了两种安装方式,你可以根据自己的喜好选择。 2.1 使用Docker快速部署(