AI 编程新王 Codex 全面上手指南

AI 编程新王 Codex 全面上手指南

一篇文章带你精通 Codex 四大环境 + 免费使用方法

💡 前言:AI 编程的新时代

AI 编程的竞争正进入“第二轮洗牌期”。
过去几个月,Claude Code 一度成为开发者的宠儿,但频繁的限速、封号、降智问题让不少人头疼。
如今,OpenAI 推出的 Codex 迅速崛起,凭借强大的编程能力和超高性价比,成为“AI 编程新王”。

Codex 是什么?
它是基于 GPT-5 模型打造的专用编程环境,支持命令行、VS Code 插件、SDK 集成、云端操作等多种运行模式。
不论你是写脚本、做项目、还是维护仓库,Codex 都能像“AI 结对程序员”一样协助你高效开发。

这篇文章会带你彻底掌握 Codex,从安装、登录、模型切换,到免费接入国内模型与高级功能配置。
看完之后,你就能完全用上 Codex,甚至做到“零成本使用”。


⚙️ Codex 的四种运行环境

Codex 支持以下四种主要运行方式:

环境说明
CLI(命令行环境)轻量快速,最核心、功能最完整的环境。
IDE 插件环境直接在 VS Code 中使用,具备交互式文件修改与撤销功能。
SDK 环境可嵌入 Node.js 工程中,用代码直接调用 Codex。
云端环境无需本地安装,通过网页与 GitHub 完成远程开发与代码审核。

其中最推荐的起点是 CLI 环境 —— 它是 Codex 的控制中心。


🧩 命令行环境安装与配置

1️⃣ 安装 Node.js

Codex CLI 依赖 Node.js 环境。
进入 Node.js 官网,根据系统下载并安装 LTS 版本即可。
安装完成后,终端输入:

node -v 

若能正常输出版本号,说明 Node.js 安装成功。


2️⃣ 安装 Codex CLI

打开命令行或 PowerShell,输入:

npminstall -g codex 

等待安装完成。
你可以执行 codex --version 来验证安装是否成功。


3️⃣ 登录 OpenAI 账户

Codex CLI 默认使用 OpenAI 官方模型(GPT-5 / GPT-5-Codex)
首次启动时会要求你登录 ChatGPT 账号。

codex 

终端会自动打开浏览器,跳转至 OpenAI 登录页面。
登录完成后回到终端,输入一句:

Hello Codex!

若收到回复,说明配置成功。


🧠 模型选择与性能档位

使用命令:

codex model 

可在不同模型间切换。

模型特点
GPT-5通用模型,支持代码、自然语言、分析类任务。
GPT-5-Codex编程专用模型,优化代码生成与文件操作能力。

Codex 还支持三种性能档位(Reasoning Effort):

档位特点
Low速度最快,逻辑简单任务。
Medium平衡模式(推荐)。
High推理最强但响应稍慢。

🆓 免费接入国产模型(替代 Plus 方案)

没开通 ChatGPT Plus?
没关系——你可以通过国产开放模型 API 接入 Codex,实现免费使用

以下以 智谱大模型开放平台 为例:

  1. 前往 docs.bigmodel.cn 注册账号;
  2. 进入「账号设置 → 访问令牌」创建新的 API Key;
  3. 打开模型库,筛选「支持推理 API」的模型(如 glm-4.6);
  4. 复制模型的 base_urlapi_key

然后编辑 Codex 配置文件:

  • Windows:C:\Users\<用户名>\.codex\config.toml
  • macOS/Linux:~/.codex/config.toml

示例:

model_name = "glm-4.6" base_url = "https://api.xxx.com/v1" api_key_env = "BIGMODEL_KEY" 

⚠️ 注意:
不要在配置文件中直接写 API Key。
你需要在系统环境变量中新建一个变量:

变量名变量值
BIGMODEL_KEY你的 API Key

保存后重启 Codex,即可直接免费调用该模型。


🐞 已知问题与解决方案

自定义模型存在一个小问题:
有时 Codex 会调用系统默认编辑器修改文件,效率较低。

解决方法:

在提示词中加入「请使用 Codex 内置编辑接口修改文件」,
可降低触发外部调用 Bug 的概率。

🔧 Codex 常用命令一览

命令功能
/init扫描当前目录并生成 AGENTS.md,帮助 Codex 理解项目结构。
/compact压缩对话上下文,节省 token 并提高专注度。
/new清空对话记录,开始新任务。
/approvals调整 Codex 执行权限(手动 / 自动 / 全自动)。
/mcp列出已安装的 MCP(Model Context Protocol)工具。

🧰 MCP 工具:让 Codex “会用外部软件”

MCP(Model Context Protocol)是 Codex 的插件机制
让它能直接操作数据库、Excel、甚至网页浏览器。

例 1:安装 Context7 MCP

🧠 Context7 是什么?

Context7 是由 Upstash 推出的一个开源 MCP(Model Context Protocol)Server。
它的核心目标是:

让 AI 编程助手(如 Codex、Claude Code、Cursor 等)能够实时访问最新的框架文档、API 用法与示例,从而生成更准确、更贴近版本实际的代码。

换句话说,Context7 让 Codex 拥有“技术文档即时记忆”
当你让 Codex 写 Next.js、React、Tailwind、Prisma 等框架代码时,
它会自动查询 Context7 提供的实时文档数据,从而避免“胡编 API”或引用旧版语法的问题。

例如,

当你让 Codex 生成 Next.js 15 的路由代码时,
它不再依赖模型训练时的旧语料,而是即时从 Context7 获取该版本的真实写法。
⚙️ Context7 的作用

集成 Context7 后,Codex 可以在执行编程任务时做到:

  1. 自动查询文档
    • 识别你当前使用的框架或库;
    • 自动匹配正确的 API 文档和示例。
  2. 版本感知开发
    • 了解每个库的具体版本差异;
    • 避免“方法弃用”或“参数错误”问题。
  3. 减少幻觉(Hallucination)
    • 不再凭空生成不存在的函数或类型;
    • 输出代码几乎总是与真实 API 匹配。
  4. 提示增强(Prompt Enrichment)
    • Codex 的提示上下文中自动注入对应库的技术知识;
    • 让模型生成代码时“有理有据”。

一句话总结:

Codex 负责思考与生成,Context7 负责提供真实知识。
🧩 在 OpenAI Codex 中安装 Context7

要让 Context7 为 Codex 提供文档支持,只需在 Codex 的 MCP 配置文件中添加一段配置。
官方推荐的配置方式如下👇

🛠️ 基本安装配置

在 Codex 的 MCP server 配置文件(通常是 config.toml)中,添加以下内容:

[mcp_servers.context7] args = ["-y", "@upstash/context7-mcp", "--api-key", "YOUR_API_KEY"] command = "npx" 

解释:

  • command = "npx":让 Codex 通过 Node.js 的 npx 运行 Context7;
  • args:传入运行参数,包括包名和认证密钥;
  • YOUR_API_KEY:到 Upstash Context7 注册并生成的密钥。

完成后保存配置,重启 Codex CLI。
首次运行 Codex 时,它会自动加载 Context7,并显示类似:

✔ Loaded MCP server: context7 
⚠️ Windows 用户注意事项

若遇到 request timed out(请求超时)错误,可改用完整路径配置 Node.js 与包路径:

[mcp_servers.context7] command = "C:\\Program Files\\nodejs\\node.exe" args = [ "C:\\Users\\yourname\\AppData\\Roaming\\npm\\node_modules\\@upstash\\context7-mcp\\dist\\index.js", "--transport", "stdio", "--api-key", "YOUR_API_KEY" ] 

或使用 CMD 启动方式:

[mcp_servers.context7] command = "cmd" args = ["/c", "npx", "-y", "@upstash/context7-mcp", "--api-key", "ctx7sk-06b8d8a7-827a-450d-92e3-c8ef9ea0c2ce"] startup_timeout_sec = 20.0 [mcp_servers.context7.env] SystemRoot = 'C:\Windows' 
⚠️ macOS 用户注意事项

如遇相同问题,可显式指定 Node.js 全路径:

[mcp_servers.context7] command = "/Users/yourname/.nvm/versions/node/v22.14.0/bin/node" args = [ "/Users/yourname/.nvm/versions/node/v22.14.0/lib/node_modules/@upstash/context7-mcp/dist/index.js", "--transport", "stdio", "--api-key", "YOUR_API_KEY" ] 
✅ 成功后你可以这样使用
帮我写一段使用 Prisma Client 连接 PostgreSQL 的示例代码 

或:

Next.js 15 中的 app router 怎么动态加载组件? 

Codex 将实时从 Context7 中提取对应框架的官方文档片段,生成完全匹配当前版本的写法。


例 2:安装 Excel MCP

📊 Excel MCP 是什么?

Excel MCP 是一个通过 MCP 协议暴露的“表格自动化工具”,
让 Codex 能直接创建/读取/修改 Excel 文件(以及常见 CSV/表格操作),
把“让 AI 写代码→写入表格→分析数据”这一整链路打通。

适用场景包括:批量报表生成、数据清洗、按规则高亮、排名/统计汇总、从代码输出到表格等。

⚙️ Excel MCP 的作用
  • 表格生成与导出:从自然语言需求直接生成结构化表格;
  • 数据处理与统计:排序、筛选、分组、聚合、计算平均/中位数等;
  • 格式与样式:条件高亮、前 n 名标记、列宽优化;
  • 自动化工作流:与 Git/数据库 MCP 串联,做“拉数据→整形→导出→发 PR”。

一句话总结:

Codex 负责指令和逻辑,Excel MCP 负责把结果落地到真实表格。
🧩 在 OpenAI Codex 中安装 Excel MCP

在 Codex 的 MCP 配置文件(通常是 config.toml)中添加如下配置(使用 Python uvx 运行):

[mcp.excel] command = "uvx" args = ["excel-mcp", "--stdio"] 

保存并重启 Codex 后,执行 /mcp 应能看到 excel 已被加载。

⚠️ Windows 用户注意事项

如果你的系统没有正确识别 uvx,或遇到超时问题:

  • 确保已安装好 Python/UV(pip install uv 或参考 uv 官方安装方式);
  • 必要时使用完整路径,例如:
[mcp_servers.excel] command = "cmd" args = ["/c", "uvx", "excel-mcp-server", "stdio"] startup_timeout_sec = 20.0 [mcp_servers.excel.env] SystemRoot = 'C:\Windows' 
⚠️ macOS 用户注意事项

若使用 uvx 命令不可用或存在多版本 Python,请显式写全路径:

[mcp.excel] command = "/Users/yourname/.local/bin/uvx" args = ["excel-mcp", "--stdio"] 

或:

[mcp.excel] command = "/opt/homebrew/bin/uvx" args = ["excel-mcp", "--stdio"] 

✍️ 自定义命令(Prompt 级命令)

你可以在 .codex/prompts/ 文件夹里创建文件,来自定义命令。

例如新建 gitdiff.md

比较 {{branch1}} 与 {{branch2}} 的差异,并用自然语言总结。 

重启 Codex 后执行:

/cmd gitdiff main dev 

Codex 就会自动对比两个分支并输出总结结果。
这种方式非常适合创建你的个性化开发指令库


🧑‍💻 IDE 插件环境:VS Code 直接使用 Codex

打开 VS Code → Extensions,搜索 “OpenAI Codex” 并安装。

Codex 插件优点:

  • 支持可视化文件对比;
  • 支持“一键撤销(Undo)”;
  • 支持粘贴图片进聊天窗口,便于 AI 理解 UI 或截图。

插件与 CLI 共用配置文件和历史记录,无需重复设置。


☁️ 云端环境:网页上直接写代码

Codex 还支持 云端开发模式
访问 codexgpt.com

  1. 登录并绑定 GitHub 账户;
  2. 上传项目仓库;
  3. 在网页输入修改指令(如“让按钮更显眼”);
  4. Codex 自动修改代码、创建 Pull Request;
  5. 审核后合并,VS Code 可直接同步更新。

自动 Code Review 功能

打开「设置 → 启用自动代码审核」,
Codex 会对每次 Pull Request 自动进行 Code Review。

例如它能提示:

“将 HTTPS 改为 HTTP 可能导致请求失败。”

这个功能在团队协作与代码质量保障上非常有用。


🧬 SDK 集成:让 Codex 嵌入你自己的程序

如果你想让自己的项目直接调用 Codex,可使用官方 SDK。

使用步骤

npm init -y npminstall codex-sdk 

创建 index.mjs

import Codex from"codex-sdk";const codex =newCodex();const result =await codex.ask("写一个输出 Hello World 的 Python 程序"); console.log(result);

运行:

node index.mjs 

若成功输出结果,说明 SDK 环境已正确配置。


AI 编程的未来不是取代程序员,而是放大他们的创造力。
掌握 Codex,你就拥有了一个随时待命的超级搭档。

Read more

第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)

第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)

一、引言:AIGC 时代的浪潮 在数字化时代的浪潮中,人工智能生成内容(AIGC)技术正以迅猛之势席卷而来,深刻地改变着我们的生活和工作方式。从日常的社交媒体互动,到专业的内容创作、设计、教育、医疗等领域,AIGC 工具无处不在,展现出强大的影响力和无限的潜力。 AIGC 技术的核心在于利用人工智能算法,通过对海量数据的学习和分析,自动生成各种形式的内容,包括文本、图像、音频、视频等 。这一技术的突破,打破了传统内容创作的边界,使得内容生产变得更加高效、智能和多样化。无论是创作一篇新闻报道、设计一幅精美的海报,还是制作一段引人入胜的视频,AIGC 工具都能提供有力的支持,帮助创作者节省时间和精力,激发更多的创意灵感。 如今,AIGC 工具已经广泛应用于各个行业。在新闻媒体领域,自动化新闻写作工具能够快速生成体育赛事、财经新闻等报道,大大提高了新闻的时效性;在广告营销行业,AIGC 可以根据产品特点和目标受众,生成极具吸引力的广告文案和创意设计,提升营销效果;在影视游戏制作中,AIGC

By Ne0inhk
从 Copilot 到工程化 Agent 执行框架:基于OpenCode + OpenSpec 的企业级 AI Coding 落地实践

从 Copilot 到工程化 Agent 执行框架:基于OpenCode + OpenSpec 的企业级 AI Coding 落地实践

引言:AI Coding 进入规范驱动自动化时代         当前,许多开发者在使用 AI 编程助手时正普遍面临—个痛点:在处理大型项目时, AI 似乎会“遗忘”上下文,导致代码回归、引入新 Bug 或生成不符合项目规范的混乱代码。正如研发同学反复出现的挫败感:  “代码库越大, AI 弄得越乱”。         这种被称为“Vibe Coding”的模式,是 AI 辅助工程必要的、但也是原始的第—步。它更像—种不可预测的艺术,而非可重复、可扩展的科学。要真正释放 AI 的生产力,我们必须迎来—次范式的进化:从凭感觉的“Vibe Coding” ,转向由规范驱动的(Spec-Driven Development)专业化 AI 工程新范式。         本文将深入探讨如何将强大的

By Ne0inhk
在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南

在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南

目录 * 在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南 * 引言:从“为什么选择昇腾”开始 * 第一幕:环境搭建——好的开始是成功的一半 * 1.1 GitCode Notebook 创建“避坑指南” * 1.2 环境验证:“Hello, NPU!” * 第二幕:模型部署——从下载到运行的“荆棘之路” * 2.1 安装依赖与模型下载 * 2.2 核心部署代码与“坑”的化解 * 第三幕:性能测试——揭开昇腾NPU的真实面纱 * 3.1 严谨的性能测试脚本 * 3.2 测试结果与分析 * 第四幕:性能优化——让Llama跑得更快 * 4.1 使用昇腾原生大模型框架 * 4.

By Ne0inhk

没显卡怎么玩AI绘画?NewBie-image-Exp0.1云端镜像2块钱搞定

没显卡怎么玩AI绘画?NewBie-image-Exp0.1云端镜像2块钱搞定 你是不是也和我一样,某天刷推特突然看到同行用AI生成了一张超精致的日系角色图——发色渐变自然、服装细节拉满、眼神光都带着情绪,心里“咯噔”一下:这我也想做啊! 可一查教程,清一色写着“需要NVIDIA显卡”“推荐RTX 4060以上”,再上京东一看价格,好家伙,五千多起步。而你的工作主力机偏偏是台轻薄MacBook,连个独立显卡都没有,只能干瞪眼。 别急,今天我就来告诉你一个不用买显卡、不折腾本地环境、2块钱就能玩转AI绘画的神仙方案:使用ZEEKLOG星图平台上的 NewBie-image-Exp0.1 云端镜像,一键部署,直接开画! 这个镜像专为动漫风格图像生成打造,基于Next-DiT架构,拥有35亿参数规模,在生成二次元角色方面表现极其出色。更关键的是,它支持XML结构化提示词,能精准控制角色特征、动作、场景甚至光影氛围,特别适合插画师、原画爱好者、同人创作者这类对细节要求高的用户。 而且整个过程完全在云端完成,你只需要一台能上网的电脑(哪怕是MacBook Air),就能享受高性能GPU

By Ne0inhk