2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

1.前言

Codex 是由 OpenAI 开发的强大 AI 代码生成模型,基于 GPT 架构微调而成,能够根据自然语言描述自动生成高质量代码。它支持数十种编程语言,尤其在 Python 和 JavaScript 上表现突出。

img

之前一直使用claude code(简称CC) 实现代码编程,每天稍微用一下大几十美刀就没了。 这几天开始用codex ,使用公益网站提供的gpt 5模型用起来也太省了。今天一个下午用下来总共消耗了0.02美金,这也太爽了。给大家看一下消耗截图。

img

而且代码能力也不输claude code 对应的claude4.5模型,我们看一下他们价格对比。

img

初步算了一下价格claude4.5模型是gpt5模型的1333倍,对比claude3.5模型也只是它的千分之3的费用,基本可以算是白菜价了。今天就带大家一起玩转着codex来实现vibe coding编程。

2.codex安装及使用

node.js下载和安装

使用codex我们需要先安装node.js这个和之前使用claude code一样

node.js下载地址https://nodejs.org/zh-cn/download 这里我们选择对应的版本下载,我这里以linux为例

img

输入下面命令

# Download and install nvm:curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# in lieu of restarting the shell\. "$HOME/.nvm/nvm.sh"# Download and install Node.js: nvm install22# Verify the Node.js version: node -v # Should print "v22.20.0".# Verify npm version:npm -v # Should print "10.9.3".
img

codex 安装

我们输入下面命令安装codex

npminstall -g @openai/codex 

安装完成后,我们使用agentrouter.org 提供的免费的模型(gpt5模型)这里我们需要做如下设置。

设置系统环境变量,变量名为 AGENT_ROUTER_TOKEN

sudovim /etc/profile 

在文件末尾添加

exportAGENT_ROUTER_TOKEN="你的令牌值"
img

保存退出后,使配置立即生效

source /etc/profile 

创建 ~/.codex/config.toml 文件,并添加如下配置

model ="gpt-5" model_provider ="openai-chat-completions" preferred_auth_method ="apikey"[model_providers.openai-chat-completions] name ="OpenAI using Chat Completions" base_url ="https://agentrouter.org/v1" env_key ="AGENT_ROUTER_TOKEN" wire_api ="chat" query_params ={} stream_idle_timeout_ms =300000

平台提供多种模型

img

如果换其他模型 这里我们用glm-4.5 模型为案例改成下面配置

model ="glm-4.5" model_provider ="openai-chat-completions" preferred_auth_method ="apikey"[model_providers.openai-chat-completions] name ="OpenAI using Chat Completions" base_url ="https://agentrouter.org/v1" env_key ="AGENT_ROUTER_TOKEN" wire_api ="chat" query_params ={}

接下来我们需要创建 ~/.codex/auth.json 文件,并在其中加入如下代码

{"OPENAI_API_KEY":"这里换成你申请的 KEY"}

通过以上配置我们就完成了codex安装和配置了。

codex验证测试

我们在命令行窗口输入 codex

img

确定后,进入codex shell窗口,随便输入内容

img

这样我们最基本的codex 就安装成功了。

codex 常用的命令

下面给大家简单介绍一下codex常用命令。

img
img

熟悉claude code 小伙伴应该了解很多命令其实是差不多的 比如compact 做压缩使用。

model

可以选择模型速度 高中低的速度,我们这里就选择默认即可。

img

Approval

Approval Mode(审批模式)定义了 Codex 在执行读取、写文件或运行命令等操作前,是否必须获得用户确认。它既提供便捷的无中断体验,也保留关键决策点,防止潜在风险.

img
img

review

img
  • 审查未提交的更改:用于查看尚未提交到版本控制系统的代码修改内容,便于在提交前检查代码质量。
  • 审查一次提交:针对已经完成提交的某一次代码提交记录进行审查,聚焦单次提交的改动。
  • 针对基准分支进行审查:将当前代码与指定的基准分支(如主分支main)进行对比,审查分支间的代码差异,常用于多人协作时的分支合并前检查。
  • 自定义审查说明:允许用户根据项目需求,自定义审查的规则、步骤或说明文档,满足个性化的代码审查流程。

new

这个很好理解就是开启一个新的聊天对话

init

在配置与 Codex 相关的项目时,通过初始化命令自动生成一份文档,用于定义 Codex 的代理(agents)操作规则、使用说明或工作流程

compact

总结对话,以避免达到上下文限制。对上下文进行压缩

diff

查看 Git 代码差异,Git 的核心命令之一,默认功能是 “查看已追踪文件(已通过git add加入版本控制的文件)的未提交改动差异”,比如修改了某个已追踪文件后,用它能看到具体改了哪些内容。

mention

提及这个文件,我们通常用应用这个文件使用@

cc-switch

有的小伙伴可能会有疑问了这么多命令行,好麻烦,另外如果我电脑上想配置多个模型,通过命令行切换就太麻烦了。之前有给大家介绍过使用claude-code-router .《干货!2025 AI 开发工具全攻略:CLI 命令行 + 集成工具推荐,附免费额度指南》 这个是基于claude code 实现多个模型配置方法。本次给大家介绍支持claude code 和codex 的一个更简单的工具叫做cc-switch.

这个开源工具的地址是https://github.com/farion1231/cc-switch

这个工具支持多个操作系统版本 macOS 、linux 、windows. windows 安装相对比较简单下载EXE安装即可。

img

我使用的是linux 所以下载https://github.com/farion1231/cc-switch/releases/download/v3.5.1/CC-Switch-v3.5.1-Linux.deb

安装命令也很简单,执行下面命令

sudo dpkg -i CC-Switch-v3.5.1-Linux.deb 

安装好后我们在shell 命令行执行下面命令cc-switch 弹出对话框

img

目前这个工具支持claude 和codex

点击添加供应商这里可以弹出支持目前主流的多个供应商

img

这个配置也比较简单填写相关信息即可

img

上面的配置是基于claude的

img

下面是基于codex的 上图配置的模型是gpt-5 若果配置多个模型 可以增加多个配置即可

img

使用的时候我们只要启用一个就可以了

img

通过这个工具我们就非常方便的切换各个模型,只需要第一次配置即可。

3.codex mcp 安装

上面给大家介绍了最基本的codex 命令,如果想让codex更强大那么必须要给它安装几个MCP . 下面给大家安装几个常见的mcp

安装命令如下:

1.context7

[mcp_servers.context7] args = ["-y", "@upstash/context7-mcp", "--api-key", "YOUR_API_KEY"] command = "npx" 

2.Playwright MCP

~/.codex/config.toml

[mcp_servers.playwright] command = "npx" args = ["@playwright/mcp@latest"] 

3.Chrome DevTools MCP

codex mcp add chrome-devtools -- npx chrome-devtools-mcp@latest 

4.sentry

codex mcp add sentry -- npx -y mcp-remote@latest https://mcp.sentry.dev/mcp 

5.n8n-mcp

[mcp_servers.n8n] command = "npx" args = ["n8n-mcp"] env = { "MCP_MODE" = "stdio", "LOG_LEVEL" = "error", "DISABLE_CONSOLE_OUTPUT" = "true","N8N_API_URL": "http://localhost:5678/","N8N_API_KEY": "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzdWIiOiI5NTQ0ZGUwYS1hY2FhLTRmMTAtOWU2MC1lYTdkODliNjc1NWYiLCJpc3MiOiJuOG4iLCJhdWQiOiJwdWJsaWMtYXBpIiwiaWF0IjoxNzYwNDMyMjQ0fQ.2dZNwI6Vxx8cw06sM_dNjaDwrM1efrKYpNbCLdMHmBk" } 

上面有些是通过命令行执行安装,有些是通过修改~/.codex/config.toml 实现的。安装后的可以在config.toml 找到安装信息

img

安装完成后我们可以在codex 查看这个MCP list

img

通过上面截图可以看到我上面已经安装好几个MCP 了。其他的MCP 大家根据自己的需求安装,安装的方法和上面介绍的一样。

4.codex 实战

接下来我们使用codex 来实战一下。

我这里有一个MD文档。文档里面有一些图片,图片里面的文字信息我觉的很有意思。我接下来使用codex把这些图片的信息使用多模态的能力识别出来整理出文本信息。例如:

img

我的提示词内容如下:

请使用chrome-devtools这个MCP工具提取"假期值班毫无意义为啥就是取消不了.md"文档里面每张图片里面文字内容信息。输出到一个图片提取信息2.md文档中显示这个提取图片里面文字内容信息。请基于以上要求执行。全部使用中文。 
img

​ 这里我们使用MCP 工具抓取页面图片信息实现OCR识别。

img

这个是它运行完之后的结果。这里我们有2个识别结果。1个是下午用claude code 识别的,1个是 gpt5-codex识别的

img

我们使用BCompare比较工具比较识别的内容是否有差异。

img

从比对结果来看 图片识别的文字内容信息应该是差不多的。我们在找一个原图看看,这里我们就找图片9

img

呵呵 应该是对的上的。

上面我是用一个非常简单的案例使用codex 来识别一个文档中带有图片文字的信息,让它把我整理出来。我们就通过非常简单提示词+MCP 工具就把我要的信息提取出来了。

有的小伙伴问你要这个信息干啥,嘿嘿我后面自然有用,感兴趣可以关注后面的文章我拿这个信息干点其他事情。

5.总结

今天主要带大家了解并实现了 Codex 的安装配置与实战应用完整流程,该流程以 OpenAI 开发的 Codex 代码生成模型为核心,结合 node.js 环境搭建、agentrouter.org 提供的模型服务,搭配 cc-switch 工具的多模型管理能力,形成了一套从环境部署到功能扩展的实用化解决方案。

通过这套实践方案,用户能够低成本体验 Codex 的强大能力 —— 借助简单的安装配置步骤(包括 node.js 环境搭建、Codex 安装、环境变量与配置文件设置),无需复杂的模型部署成本,就能快速启用 GPT-5、GLM-4.5 等多种模型,无论是基础的代码生成、对话交互,还是通过 MCP 扩展的图片文字识别、浏览器调试等功能,都能通过简洁的命令行操作完成,极大降低了开发者使用 AI 辅助编程的技术门槛。在实际验证中,Codex 能够稳定响应多样化的需求,特别是结合 chrome-devtools 等 MCP 工具后,有效实现了多模态场景下的信息提取,且成本远低于同类工具。同时,方案具备良好的扩展性 —— 小伙伴们可以基于此扩展更多实用功能,如自动化代码审查、多语言程序调试、文档批量处理等,进一步丰富 Codex 在实际开发场景中的应用价值。

感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据需求配置适合的模型与 MCP 工具。今天的分享就到这里结束了,我们下一篇文章见。

Read more

Hunyuan-MT-7B-WEBUI快速上手:10分钟完成翻译服务部署

Hunyuan-MT-7B-WEBUI快速上手:10分钟完成翻译服务部署 1. 这不是普通翻译工具,是能开箱即用的专业级多语种翻译服务 你有没有遇到过这些情况: * 需要快速把一份维吾尔语产品说明书转成中文,但主流翻译API不支持; * 客户发来一封西班牙语技术邮件,想立刻看懂又不想反复粘贴到网页版; * 团队在做跨境内容运营,每天要处理日、法、葡、西四语种的社媒文案,但人工翻译成本太高…… Hunyuan-MT-7B-WEBUI 就是为这类真实需求而生的——它不是另一个需要调接口、写代码、配环境的“半成品模型”,而是一个预装好、点开就能用、连GPU显存都帮你算好了的完整翻译服务。 它背后跑的是腾讯混元团队开源的 Hunyuan-MT-7B 模型,专为高质量机器翻译设计,在 WMT2025 多语种翻译评测中拿下30个语种综合第一。更关键的是,它不是只支持“中英日韩”这种常见组合,而是实打实覆盖了38种语言互译,包括日语、法语、西班牙语、葡萄牙语、阿拉伯语、俄语、越南语、泰语、印尼语,以及维吾尔语、藏语、蒙古语、壮语、

美食推荐商城设计与实现信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

美食推荐商城设计与实现信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着互联网技术的快速发展和电子商务的普及,线上美食推荐商城逐渐成为消费者获取美食信息和购买相关产品的重要渠道。传统的美食推荐方式存在信息分散、个性化不足等问题,难以满足用户多样化的需求。基于此,开发一个高效、智能的美食推荐信息管理系统具有重要的现实意义。该系统能够整合各类美食资源,通过数据分析为用户提供精准推荐,同时优化商城的运营管理流程,提升用户体验和商业价值。关键词:美食推荐、电子商务、信息管理、个性化推荐、数据分析。 本系统采用前后端分离的架构设计,后端基于SpringBoot框架实现,具备高效的数据处理和接口服务能力;前端采用Vue.js框架开发,提供流畅的用户交互体验;数据库选用MySQL,确保数据存储的安全性和稳定性。系统主要功能包括用户管理、美食分类展示、智能推荐算法、订单管理及数据分析等模块。通过JWT实现用户身份认证,结合协同过滤算法提升推荐精准度,同时利用ECharts实现数据可视化,为管理员提供决策支持。系统源码完整,可直接运行,便于二次开发和实际部署。关键词:SpringBoot、Vue.js、MySQL、JWT、协同过滤、数据可视化。 数据表 用

Flutter 三方库 deepyr 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、高颜值的类型安全 daisyUI 响应式 Web 应用架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 deepyr 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、高颜值的类型安全 daisyUI 响应式 Web 应用架构 在鸿蒙(OpenHarmony)系统的分布式 Web 容器、轻量级 JS 服务或高性能 Web 控制台中,如何快速搭建一套既符合现代审美又具备强类型约束的 UI?deepyr 做为对 daisyUI 组件库的类型安全(Typesafe)封装,为鸿蒙上的 Jaspr Web 应用提供了极致流畅的开发体验。本文将带您领略其在鸿蒙生态中的美学实战。 前言 什么是 Deepyr?它是一套基于 Jaspr(下一代 Dart Web 框架)的 UI

从零开始玩转PaddleOCR-VL-WEB:Jupyter一键启动教程

从零开始玩转PaddleOCR-VL-WEB:Jupyter一键启动教程 1. 简介与学习目标 PaddleOCR-VL-WEB 是基于百度开源的 PaddleOCR-VL 技术构建的一款高效、多语言支持的文档解析系统。该模型融合了动态分辨率视觉编码器与轻量级语言模型,能够在低资源消耗下实现对文本、表格、公式和图表等复杂元素的高精度识别,广泛适用于全球化场景下的智能文档处理任务。 本文将带你从零开始部署并使用 PaddleOCR-VL-WEB 镜像,通过 Jupyter Notebook 实现一键启动网页推理服务。无论你是 AI 初学者还是有一定工程经验的开发者,都能快速上手,完成本地化 OCR 大模型的部署与调用。 学习目标 * 掌握 PaddleOCR-VL-WEB 镜像的基本结构与核心能力 * 完成镜像部署与环境配置 * 在 Jupyter 中执行一键启动脚本 * 使用 Web 界面进行图像 OCR 推理 * 理解常见问题及解决方案 前置知识 * 基础 Linux 操作命令(cd、ls、chmod 等)