2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

1.前言

Codex 是由 OpenAI 开发的强大 AI 代码生成模型,基于 GPT 架构微调而成,能够根据自然语言描述自动生成高质量代码。它支持数十种编程语言,尤其在 Python 和 JavaScript 上表现突出。

img

之前一直使用claude code(简称CC) 实现代码编程,每天稍微用一下大几十美刀就没了。 这几天开始用codex ,使用公益网站提供的gpt 5模型用起来也太省了。今天一个下午用下来总共消耗了0.02美金,这也太爽了。给大家看一下消耗截图。

img

而且代码能力也不输claude code 对应的claude4.5模型,我们看一下他们价格对比。

img

初步算了一下价格claude4.5模型是gpt5模型的1333倍,对比claude3.5模型也只是它的千分之3的费用,基本可以算是白菜价了。今天就带大家一起玩转着codex来实现vibe coding编程。

2.codex安装及使用

node.js下载和安装

使用codex我们需要先安装node.js这个和之前使用claude code一样

node.js下载地址https://nodejs.org/zh-cn/download 这里我们选择对应的版本下载,我这里以linux为例

img

输入下面命令

# Download and install nvm:curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# in lieu of restarting the shell\. "$HOME/.nvm/nvm.sh"# Download and install Node.js: nvm install22# Verify the Node.js version: node -v # Should print "v22.20.0".# Verify npm version:npm -v # Should print "10.9.3".
img

codex 安装

我们输入下面命令安装codex

npminstall -g @openai/codex 

安装完成后,我们使用agentrouter.org 提供的免费的模型(gpt5模型)这里我们需要做如下设置。

设置系统环境变量,变量名为 AGENT_ROUTER_TOKEN

sudovim /etc/profile 

在文件末尾添加

exportAGENT_ROUTER_TOKEN="你的令牌值"
img

保存退出后,使配置立即生效

source /etc/profile 

创建 ~/.codex/config.toml 文件,并添加如下配置

model ="gpt-5" model_provider ="openai-chat-completions" preferred_auth_method ="apikey"[model_providers.openai-chat-completions] name ="OpenAI using Chat Completions" base_url ="https://agentrouter.org/v1" env_key ="AGENT_ROUTER_TOKEN" wire_api ="chat" query_params ={} stream_idle_timeout_ms =300000

平台提供多种模型

img

如果换其他模型 这里我们用glm-4.5 模型为案例改成下面配置

model ="glm-4.5" model_provider ="openai-chat-completions" preferred_auth_method ="apikey"[model_providers.openai-chat-completions] name ="OpenAI using Chat Completions" base_url ="https://agentrouter.org/v1" env_key ="AGENT_ROUTER_TOKEN" wire_api ="chat" query_params ={}

接下来我们需要创建 ~/.codex/auth.json 文件,并在其中加入如下代码

{"OPENAI_API_KEY":"这里换成你申请的 KEY"}

通过以上配置我们就完成了codex安装和配置了。

codex验证测试

我们在命令行窗口输入 codex

img

确定后,进入codex shell窗口,随便输入内容

img

这样我们最基本的codex 就安装成功了。

codex 常用的命令

下面给大家简单介绍一下codex常用命令。

img
img

熟悉claude code 小伙伴应该了解很多命令其实是差不多的 比如compact 做压缩使用。

model

可以选择模型速度 高中低的速度,我们这里就选择默认即可。

img

Approval

Approval Mode(审批模式)定义了 Codex 在执行读取、写文件或运行命令等操作前,是否必须获得用户确认。它既提供便捷的无中断体验,也保留关键决策点,防止潜在风险.

img
img

review

img
  • 审查未提交的更改:用于查看尚未提交到版本控制系统的代码修改内容,便于在提交前检查代码质量。
  • 审查一次提交:针对已经完成提交的某一次代码提交记录进行审查,聚焦单次提交的改动。
  • 针对基准分支进行审查:将当前代码与指定的基准分支(如主分支main)进行对比,审查分支间的代码差异,常用于多人协作时的分支合并前检查。
  • 自定义审查说明:允许用户根据项目需求,自定义审查的规则、步骤或说明文档,满足个性化的代码审查流程。

new

这个很好理解就是开启一个新的聊天对话

init

在配置与 Codex 相关的项目时,通过初始化命令自动生成一份文档,用于定义 Codex 的代理(agents)操作规则、使用说明或工作流程

compact

总结对话,以避免达到上下文限制。对上下文进行压缩

diff

查看 Git 代码差异,Git 的核心命令之一,默认功能是 “查看已追踪文件(已通过git add加入版本控制的文件)的未提交改动差异”,比如修改了某个已追踪文件后,用它能看到具体改了哪些内容。

mention

提及这个文件,我们通常用应用这个文件使用@

cc-switch

有的小伙伴可能会有疑问了这么多命令行,好麻烦,另外如果我电脑上想配置多个模型,通过命令行切换就太麻烦了。之前有给大家介绍过使用claude-code-router .《干货!2025 AI 开发工具全攻略:CLI 命令行 + 集成工具推荐,附免费额度指南》 这个是基于claude code 实现多个模型配置方法。本次给大家介绍支持claude code 和codex 的一个更简单的工具叫做cc-switch.

这个开源工具的地址是https://github.com/farion1231/cc-switch

这个工具支持多个操作系统版本 macOS 、linux 、windows. windows 安装相对比较简单下载EXE安装即可。

img

我使用的是linux 所以下载https://github.com/farion1231/cc-switch/releases/download/v3.5.1/CC-Switch-v3.5.1-Linux.deb

安装命令也很简单,执行下面命令

sudo dpkg -i CC-Switch-v3.5.1-Linux.deb 

安装好后我们在shell 命令行执行下面命令cc-switch 弹出对话框

img

目前这个工具支持claude 和codex

点击添加供应商这里可以弹出支持目前主流的多个供应商

img

这个配置也比较简单填写相关信息即可

img

上面的配置是基于claude的

img

下面是基于codex的 上图配置的模型是gpt-5 若果配置多个模型 可以增加多个配置即可

img

使用的时候我们只要启用一个就可以了

img

通过这个工具我们就非常方便的切换各个模型,只需要第一次配置即可。

3.codex mcp 安装

上面给大家介绍了最基本的codex 命令,如果想让codex更强大那么必须要给它安装几个MCP . 下面给大家安装几个常见的mcp

安装命令如下:

1.context7

[mcp_servers.context7] args = ["-y", "@upstash/context7-mcp", "--api-key", "YOUR_API_KEY"] command = "npx" 

2.Playwright MCP

~/.codex/config.toml

[mcp_servers.playwright] command = "npx" args = ["@playwright/mcp@latest"] 

3.Chrome DevTools MCP

codex mcp add chrome-devtools -- npx chrome-devtools-mcp@latest 

4.sentry

codex mcp add sentry -- npx -y mcp-remote@latest https://mcp.sentry.dev/mcp 

5.n8n-mcp

[mcp_servers.n8n] command = "npx" args = ["n8n-mcp"] env = { "MCP_MODE" = "stdio", "LOG_LEVEL" = "error", "DISABLE_CONSOLE_OUTPUT" = "true","N8N_API_URL": "http://localhost:5678/","N8N_API_KEY": "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzdWIiOiI5NTQ0ZGUwYS1hY2FhLTRmMTAtOWU2MC1lYTdkODliNjc1NWYiLCJpc3MiOiJuOG4iLCJhdWQiOiJwdWJsaWMtYXBpIiwiaWF0IjoxNzYwNDMyMjQ0fQ.2dZNwI6Vxx8cw06sM_dNjaDwrM1efrKYpNbCLdMHmBk" } 

上面有些是通过命令行执行安装,有些是通过修改~/.codex/config.toml 实现的。安装后的可以在config.toml 找到安装信息

img

安装完成后我们可以在codex 查看这个MCP list

img

通过上面截图可以看到我上面已经安装好几个MCP 了。其他的MCP 大家根据自己的需求安装,安装的方法和上面介绍的一样。

4.codex 实战

接下来我们使用codex 来实战一下。

我这里有一个MD文档。文档里面有一些图片,图片里面的文字信息我觉的很有意思。我接下来使用codex把这些图片的信息使用多模态的能力识别出来整理出文本信息。例如:

img

我的提示词内容如下:

请使用chrome-devtools这个MCP工具提取"假期值班毫无意义为啥就是取消不了.md"文档里面每张图片里面文字内容信息。输出到一个图片提取信息2.md文档中显示这个提取图片里面文字内容信息。请基于以上要求执行。全部使用中文。 
img

​ 这里我们使用MCP 工具抓取页面图片信息实现OCR识别。

img

这个是它运行完之后的结果。这里我们有2个识别结果。1个是下午用claude code 识别的,1个是 gpt5-codex识别的

img

我们使用BCompare比较工具比较识别的内容是否有差异。

img

从比对结果来看 图片识别的文字内容信息应该是差不多的。我们在找一个原图看看,这里我们就找图片9

img

呵呵 应该是对的上的。

上面我是用一个非常简单的案例使用codex 来识别一个文档中带有图片文字的信息,让它把我整理出来。我们就通过非常简单提示词+MCP 工具就把我要的信息提取出来了。

有的小伙伴问你要这个信息干啥,嘿嘿我后面自然有用,感兴趣可以关注后面的文章我拿这个信息干点其他事情。

5.总结

今天主要带大家了解并实现了 Codex 的安装配置与实战应用完整流程,该流程以 OpenAI 开发的 Codex 代码生成模型为核心,结合 node.js 环境搭建、agentrouter.org 提供的模型服务,搭配 cc-switch 工具的多模型管理能力,形成了一套从环境部署到功能扩展的实用化解决方案。

通过这套实践方案,用户能够低成本体验 Codex 的强大能力 —— 借助简单的安装配置步骤(包括 node.js 环境搭建、Codex 安装、环境变量与配置文件设置),无需复杂的模型部署成本,就能快速启用 GPT-5、GLM-4.5 等多种模型,无论是基础的代码生成、对话交互,还是通过 MCP 扩展的图片文字识别、浏览器调试等功能,都能通过简洁的命令行操作完成,极大降低了开发者使用 AI 辅助编程的技术门槛。在实际验证中,Codex 能够稳定响应多样化的需求,特别是结合 chrome-devtools 等 MCP 工具后,有效实现了多模态场景下的信息提取,且成本远低于同类工具。同时,方案具备良好的扩展性 —— 小伙伴们可以基于此扩展更多实用功能,如自动化代码审查、多语言程序调试、文档批量处理等,进一步丰富 Codex 在实际开发场景中的应用价值。

感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据需求配置适合的模型与 MCP 工具。今天的分享就到这里结束了,我们下一篇文章见。

Read more

如何在MacBook上零配置运行Llama.cpp?手把手教你部署INT4量化大模型

在MacBook上零配置运行Llama.cpp:手把手部署INT4量化大模型实战指南 如果你和我一样,是个喜欢在本地折腾大模型的开发者,肯定遇到过这样的困扰:想在自己的MacBook上跑个像样的语言模型,要么得忍受臃肿的Python环境,要么就得面对复杂的配置和编译过程。更别提那些动辄几十GB的模型文件,光是下载就让人望而却步。 但最近我发现了一个宝藏项目——Llama.cpp,它彻底改变了我的工作流。这个用C++编写的推理框架,最大的魅力就在于它的“轻”和“快”。特别是对Mac用户来说,它原生支持Apple Silicon芯片,能够充分利用M系列芯片的神经引擎和统一内存架构。最让我惊喜的是,通过INT4量化技术,一个70亿参数的模型可以压缩到仅4GB左右,在我的MacBook Pro上就能流畅运行,响应速度甚至比某些云端API还要快。 这篇文章,我想和你分享我过去几个月在Mac上部署Llama.cpp的完整经验。我不会给你一堆枯燥的理论,而是直接带你上手操作,从环境准备到模型选择,从性能调优到实际应用,每一步都有详细的说明和避坑指南。无论你是想快速体验大模型的能力,还是需要在本

Whisper.cpp与Paraformer对比:本地化语音识别性能实测报告

Whisper.cpp与Paraformer对比:本地化语音识别性能实测报告 1. 为什么需要本地语音识别?——从云端到桌面的真实需求 你有没有遇到过这些情况: * 开会录音转文字,上传到某平台要等半天,还担心隐私泄露; * 做访谈整理,反复听30分钟音频,手动敲字敲到手腕酸; * 写材料时想边说边记,但在线ASR一卡顿就断句,还得重录。 这些问题背后,是一个被长期忽视的现实:语音识别不该只活在云端。 本地化ASR(Automatic Speech Recognition)正在成为越来越多技术用户、内容创作者甚至中小团队的刚需——它不依赖网络、不上传原始音频、响应快、可定制、还能离线运行。而今天我们要实测的两个代表:Whisper.cpp(C++轻量版OpenAI Whisper)和Speech Seaco Paraformer(基于阿里FunASR优化的中文专用模型),正是当前本地部署场景下最常被拿来比较的两套方案。 它们不是实验室玩具,而是真正能放进你笔记本、NVIDIA小显卡服务器、甚至国产ARM盒子跑起来的工具。本文不讲论文、不堆参数,只用同一台机器、同一组

让安全更懂业务:针对垂直行业定制 Llama-Guard 3 守卫模型的微调实战全指南

🚀 让安全更懂业务:针对垂直行业定制 Llama-Guard 3 守卫模型的微调实战全指南 📝 摘要 (Abstract) 本文深度探讨了如何通过微调技术将通用的 Llama-Guard 3 转化为行业专属的安全哨兵。文章从“行业安全分类分级(Taxonomy)”的定义出发,详细介绍了基于 LoRA 技术进行轻量化微调的实战流程。重点展示了如何构建高质量的(指令-分类-标签)三元组数据集,并针对微调过程中常见的“知识遗忘”与“判别漂移”问题提供了专家级的解决方案,旨在帮助开发者构建既合规又高效的 MCP 企业级安全网关。 一、 破除“一刀切”:为什么通用安全模型在垂直行业 MCP 场景中频频“翻车”? 🎭 1.1 语义冲突:通用常识与行业逻辑的博弈 通用模型在训练时遵循的是大众价值观。但在金融、法律或医药等专业领域,许多词汇在特定语境下具有完全不同的安全属性。 * 例子:在通用语境下,“绕过系统限制”是攻击;但在软件测试行业的 MCP

Qwen3-Embedding-4B推荐方案:llama.cpp集成部署教程

Qwen3-Embedding-4B推荐方案:llama.cpp集成部署教程 1. 引言 1.1 通义千问3-Embedding-4B:面向未来的文本向量化模型 Qwen3-Embedding-4B 是阿里云通义千问(Qwen)系列中专为「语义向量化」设计的中等规模双塔模型,于2025年8月正式开源。该模型以4B参数量、2560维输出向量、支持32k长文本上下文为核心亮点,定位为兼顾性能与效率的企业级语义理解基础设施组件。 其在MTEB(Multilingual Task Evaluation Benchmark)三大子集上表现优异:英文74.60、中文68.09、代码73.50,均优于同尺寸开源embedding模型。更重要的是,它支持119种自然语言及主流编程语言,在跨语言检索、bitext挖掘等任务中达到官方评估S级水平。 得益于Apache 2.0开源协议,Qwen3-Embedding-4B可直接用于商业场景,无需额外授权,极大降低了企业构建多语言知识库、智能客服、文档去重系统的门槛。 1.2 部署目标:轻量化 + 高性能