【图文】Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

【图文】Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

前言

紧跟DeepSeek的步伐,智谱也在节前发布了GLM-4.6,并称它是智谱"最强的代码Coding模型(较GLM-4.5提升27%)"

  • 代码能力对齐Claude Sonnet 4,部分榜单对齐Claude Sonnet 4.5。
  • 上下文长度增加到200K。
  • 推理能力提升,增加图像识别与搜索能力。
  • token消耗较GLM-4.5节省30%以上。

GLM Coding Plan订阅自动升级至GLM-4.6(包含已订阅的用户):

  • 支持Claude Code、Roo Code、Kilo Code、Cline等10+主流编程工具。
  • 套餐命名对齐Claude,用量为Claude x3,费用为Claude x1/7,综合性价比是Claude的21倍。
  • 套餐首次购买优惠价格及后续原价为:
    • Lite (120prompts/5h):20元/月 (续费40元/月)
    • Pro (600prompts/5h):100元/月(续费200元/月)
    • Max (2400prompts/5h):200元/月(续费400元/月)
  • 注:每次 prompt 预计可调用模型 15-20 次,每月总计可用总量高达几十亿到数百亿tokens,折算下来仅为 API 价格的 0.1 折,极具性价比。

我9月10号订阅的Lite,20元买不了吃亏买不了上当,已经用了三周了感觉非常的棒,编程能力也是足够日常工作中使用,工作中的强度根本达不到5小时120次prompts的限制。

GLM-4.5的编程能力已经很强了,这次升级到GLM-4.6又是一个大的进步。推荐各位编程工作的小伙伴,花一杯奶茶钱试试这家大模型,真的很好用

第一次可以用亲人的手机号试一下,满意的话再上自己的手机号,直接入年卡~

使用我的邀请链接订阅GLM Coding Plan,还能再打9折:GLM Coding Plan邀请9折


本指南将引导您完成安装 Codex ,并通过API方式配置 Kimi K2GLM-4.6 模型,以更实惠的方式来AI编程。

1、安装 Node.js

在开始之前,您的系统需要安装好 Node.js。

验证安装:安装完成后,打开您的终端(Terminal)或命令提示符(CMD),运行以下命令来验证。

node -v 

如果成功安装,将会显示 Node.js 的版本号(如图绿框中的)。

在这里插入图片描述

下载与安装:请前往 Node.js 官方网站 下载并安装最新版本的 Node.js(建议使用 v18 或更高版本)。根据您的操作系统下载对应的安装包。

在这里插入图片描述

2、安装 Codex

接下来,我们将全局安装 Codex NPM 包。此步骤在不同操作系统下的主要区别在于是否需要管理员权限。

注意:为了获得最佳的安装体验,建议连接稳定的网络环境(例如使用科学上网)运行安装命令。

2.1、Windows

    1. 管理员身份 打开您的 命令提示符(CMD)PowerShell

输入并运行以下安装命令:

npminstall -g @openai/codex 
在这里插入图片描述

2.2、macOS / Ubuntu

    1. 打开您的 终端(Terminal)
    1. 由于全局安装 npm 包需要系统权限,您需要在命令前加上 sudo

输入并运行以下安装命令(过程中会提示您输入电脑的登录密码):

sudonpminstall -g @openai/codex 

2.3、验证安装 (所有系统通用)

安装完成后,在 新的终端窗口 中运行以下命令来验证。(旧的窗口也许可以,建议新的哈)。

codex--version 

如果终端成功返回版本号,则代表 Codex 已成功安装(绿框中的)。

在这里插入图片描述

3、获取API Key

Codex 安装成功,这时它还不能工作,因为需要登录官方或者其他模型厂商才可以。
我没有订阅GPT,因为太贵了,所以我选择了 Kimi K2和GLM-4.6的 API 来驱动Codex。
因此我们先去获取Kimi K2和GLM-4.6 的 API Key来登录。
你可以把这个API Key理解成访问密码,访问模型时需要用到这个密码哦。

3.1、获取GLM-4.6 API Key

  1. 前往 智谱AI开放平台智谱AI开放平台

申请成功后点击一下API key的复制按钮,把key复制到剪贴板中给后续使用。

在这里插入图片描述

登录后按顺序点击:右上角的头像 -> API key -> 添加新的API key -> 输入一个名字来标识这个key -> 确定。

在这里插入图片描述

创建账号并登录,系统会赠送2000万token供你试用。更建议选择月卡订阅,我自己买的20元/月的试用,日常开发足够。后续考虑升级成季度订阅~ 选择图中的立即订阅,还可以再优惠10%

在这里插入图片描述

3.2、获取Kimi K2 API Key

  1. 前往 Moonshot AI开放平台Moonshot AI开放平台
  2. 注册与登录:如果您没有账户,请先注册一个新账户并登录。
  3. 创建 API Key:在平台仪表盘中,找到创建 API Key 的选项。
  4. 关于费用
    • 新用户通常会获赠少量免费额度(例如 15 元)供测试使用。
    • 若要长期或高频率使用,建议充值至少 50 元,以解锁更高的请求速率(RPM),从而获得更流畅的体验。

重要提示:API Key 在创建后只会显示一次,请务必立即复制并妥善保存。

在这里插入图片描述

4、配置环境变量

万事俱备,只欠东风!为了让 Codex 能够成功连接到 Kimi K2和GLM-4.6,我们需要配置环境变量到Codex

4.1、Windows

您可以选择以下任一方法进行配置:

  • 方法二:使用系统属性面板
    1. 在 Windows 搜索栏中输入“环境变量”,并选择“编辑系统环境变量”。
    2. 在“系统属性”窗口中,点击“环境变量…”。
    3. 在“系统变量”区域,点击“新建…”,并添加两个新变量。

方法一:使用命令提示符
打开命令提示符(无需管理员),并执行以下两条命令。请确保将 "你的GLM_API_Key""你的Kimi_API_Key" 替换为您真实的 API Key。替换后重启一下终端。

setx GLM_API_KEY "你的GLM_API_Key" setx KIMI_API_KEY "你的Kimi_API_Key"

注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。
注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。
注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。

在这里插入图片描述

4.2、macOS / Ubuntu

在 macOS 和 Ubuntu 系统中,环境变量通常配置在 Shell 的配置文件中。

  1. 确定您的 Shell 类型
    在终端中运行 echo $SHELL
    • 如果输出包含 zsh,您的配置文件是 ~/.zshrc
    • 如果输出包含 bash,您的配置文件是 ~/.bashrc

使配置生效
运行以下命令让配置立即生效(或直接重启终端)。

# 如果您修改了 .zshrcsource ~/.zshrc # 如果您修改了 .bashrcsource ~/.bashrc 

添加环境变量
在文件的末尾,添加以下两行。请将 你的Kimi_API_Key 替换为您真实的 API Key。

exportGLM_API_KEY="你的GLM_API_Key"exportKIMI_API_KEY="你的Kimi_API_Key"

添加后,按下 Ctrl + O 保存文件,然后按 Ctrl + X 退出编辑器。

编辑配置文件
使用您喜欢的文本编辑器打开对应的文件。这里以 nano 为例(一个对新手友好的终端编辑器)。

# 如果您使用 Zsh (macOS 默认)nano ~/.zshrc # 如果您使用 Bashnano ~/.bashrc 

5、运行并配置 Codex

好,到此所有准备工作已经完成!让我们启动 Codex 吧!

  1. 打开一个新的终端窗口。

我们让他自我介绍一下,如果收到回复,就证明配置正确了(如图绿色框的回复)。

在这里插入图片描述

接着退出Codex,重新进入一下。一定要退出重进,因为我们刚改了配置嘛,需要让Codex重新加载~再次进入Codex,可以看到模型是GLM-4.6了:

在这里插入图片描述

然后打开~/.codex/config.toml文件(windows在C:\Users\你的用户名\.codex\config.toml),这里我使用vscode来打开并编辑,直接复制粘贴以下内容并保存,这里我使用GLM-4.6的模型,你要用kimi的话就把glm注释掉,然后把kimi打开:

model_provider = "glm" model = "glm-4.6" # model_provider = "kimi" # model = "kimi-k2-0905-preview" [model_providers.glm] name = "zai" base_url = "https://open.bigmodel.cn/api/coding/paas/v4" env_key = "GLM_API_KEY" [model_providers.kimi] name = "kimi" base_url = "https://api.moonshot.cn/v1" env_key = "KIMI_API_KEY" 
在这里插入图片描述

紧接着让你输入API Key,注意这里是输入的GPT官方的API Key,我们胡乱输一个确认即可:

在这里插入图片描述

输入codex 命令,你会看到让你选择登录方式,我们这里需要按方向键切换到2. Provide your own API key,回车确认:

codex 
在这里插入图片描述

6、FAQ

6.1、登录报错

  • 可能在第4步 配置环境变量 出错,需要注意windows命令行需要全部关闭,后续新开的才会生效。
  • 文章示例的GLM-4.6使用的是包月计划对应的base_url,如果你没有订阅包月套餐就会报错,可以点击这个链接包月:GLM 编程神器包月套餐·限时优惠-10%

如果你只是想试用GLM-4.6,可以把Codex的配置文件中glm的base_url改为:

https://open.bigmodel.cn/api/paas/v4/ 

6.2、使用KIMI K2对话报错或警告

使用KIMI模型时,向AI发送消息后,Codex会提示一些错误或警告, 比如这样:

在这里插入图片描述

这个原因是你没有氪金,Kimi官方赠送的免费额度每秒只能访问3次,而 Codex 会根据内置策略来多次调用api,很容易就超过每秒3次。
解决方案也很简单,氪金50块钱可以解决,哈哈哈哈。自己抉择吧~!

在这里插入图片描述

6.3、其他模型可以通过API接入吗

  • 可以,类似glm和kimi,比如deepseek,你可以去deepseek官网申请对应的api key并氪金,然后按照这篇教程配置进来。deepseek传送门:DeepSeek 开方平台

6.4、官方的配置文档参考

  • config配置:https://github.com/openai/codex/blob/main/docs/config.md
  • mcp配置:https://github.com/openai/codex/blob/main/docs/advanced.md#model-context-protocol-mcp

Read more

C++ 继承:面向对象的代码复用核心机制

C++ 继承:面向对象的代码复用核心机制

C++ 继承:面向对象的代码复用核心机制 💡 学习目标:掌握继承的基本语法与核心特性,理解不同继承方式的访问权限控制,能够通过继承实现代码复用与扩展。 💡 学习重点:继承的语法格式、三种继承方式的区别、基类与派生类的关系、继承中的构造与析构顺序。 一、继承的概念与核心价值 ✅ 结论:继承是 C++ 面向对象三大特性之一,允许一个类派生类继承另一个类基类的属性和行为,实现代码复用,同时支持派生类在基类基础上扩展新功能。 继承的核心价值体现在两个方面: 1. 代码复用:避免重复编写相同的成员变量和成员函数,降低代码冗余度 2. 功能扩展:派生类可以在基类的基础上新增属性和方法,满足更复杂的业务需求 生活中的继承示例:学生和老师都属于“人”,都有姓名、年龄等属性和吃饭、睡觉等行为。可以先定义 Person 基类,再让 Student 和 Teacher 继承 Person,并各自扩展专属功能。 二、继承的基本语法与实现 2.1

By Ne0inhk
【C++藏宝阁】C++入门:命名空间(namespace)详解

【C++藏宝阁】C++入门:命名空间(namespace)详解

🌈个人主页:聆风吟 🔥系列专栏:C++藏宝阁 🔖少年有梦不应止于心动,更要付诸行动。 文章目录 * 📚专栏订阅推荐 * 📋前言:为什么需要命名空间? * 一、命名空间的定义 * 二、命名空间的使用 * 三、命名空间的特性 * 3.1 命名空间的嵌套定义 * 3.2 命名空间的定义可以不连续 * 四、命名空间的本质:独立的作用域 * 4.1 命名空间是C++的一种作用域类型 * 4.2 命名空间作用域的特点 * 4.3 域作用限定符 `::` 的作用 * 4.4 编译器的查找规则 * 五、命名空间的价值 * 5.1 解决命名冲突 * 5.2 模块化组织代码 * 5.3

By Ne0inhk

MISRA C++静态分析报告解读:新手教程必备

如何读懂MISRA C++静态分析报告:从新手到实战的完整指南 你有没有遇到过这样的场景?刚写完一段自认为逻辑清晰、运行正常的C++代码,提交后CI流水线却“红了”——一堆来自静态分析工具的警告扑面而来,满屏都是 MISRA-C++-X-X-X 违规提示。点开一看,编号陌生、描述晦涩,修复建议模糊不清……于是你开始怀疑:这到底是在写代码,还是在解谜? 别担心,这是每个嵌入式开发者必经的成长阶段。 在汽车电子、工业控制、航空航天等对安全性要求极高的领域, MISRA C++ 已成为事实上的编码标准。它不是一种编程语言,也不是编译器特性,而是一套为“关键系统”量身打造的纪律手册。它的核心目标很明确: 把问题拦在上线前,而不是等它出事后再去救火 。 本文将带你穿透那些看似复杂的规则编号和术语迷雾,用真实案例+实战视角,手把手教你如何高效阅读并应对MISRA C++静态分析报告——不仅知道“哪里错了”,更要明白“为什么错”以及“怎么改才对”

By Ne0inhk

从基础到实战:Java全栈开发面试深度解析

从基础到实战:Java全栈开发面试深度解析 面试官与程序员的对话 第一轮:Java基础与JVM 面试官(张哥): 你好,我是张哥,今天来聊聊你的技术背景。你叫什么名字? 程序员(李明): 你好,我叫李明,25岁,本科毕业,有五年Java开发经验。 张哥: 很好,那我们先从基础开始聊起。你能说说Java中String、StringBuilder和StringBuffer的区别吗? 李明: String是不可变的,每次修改都会生成新的对象;StringBuilder是非线程安全的,性能更高;而StringBuffer是线程安全的,适合多线程环境。 张哥: 很好,回答得很准确。那你了解JVM内存结构吗? 李明: JVM主要包括方法区、堆、栈、程序计数器和本地方法栈。堆是GC的主要区域,而方法区用于存储类信息、常量池等。 张哥: 很好,你对JVM的理解很扎实。接下来我们看看实际应用中的问题。 第二轮:Spring Boot与微服务 张哥:

By Ne0inhk