【图文】Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

【图文】Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

前言

紧跟DeepSeek的步伐,智谱也在节前发布了GLM-4.6,并称它是智谱"最强的代码Coding模型(较GLM-4.5提升27%)"

  • 代码能力对齐Claude Sonnet 4,部分榜单对齐Claude Sonnet 4.5。
  • 上下文长度增加到200K。
  • 推理能力提升,增加图像识别与搜索能力。
  • token消耗较GLM-4.5节省30%以上。

GLM Coding Plan订阅自动升级至GLM-4.6(包含已订阅的用户):

  • 支持Claude Code、Roo Code、Kilo Code、Cline等10+主流编程工具。
  • 套餐命名对齐Claude,用量为Claude x3,费用为Claude x1/7,综合性价比是Claude的21倍。
  • 套餐首次购买优惠价格及后续原价为:
    • Lite (120prompts/5h):20元/月 (续费40元/月)
    • Pro (600prompts/5h):100元/月(续费200元/月)
    • Max (2400prompts/5h):200元/月(续费400元/月)
  • 注:每次 prompt 预计可调用模型 15-20 次,每月总计可用总量高达几十亿到数百亿tokens,折算下来仅为 API 价格的 0.1 折,极具性价比。

我9月10号订阅的Lite,20元买不了吃亏买不了上当,已经用了三周了感觉非常的棒,编程能力也是足够日常工作中使用,工作中的强度根本达不到5小时120次prompts的限制。

GLM-4.5的编程能力已经很强了,这次升级到GLM-4.6又是一个大的进步。推荐各位编程工作的小伙伴,花一杯奶茶钱试试这家大模型,真的很好用

第一次可以用亲人的手机号试一下,满意的话再上自己的手机号,直接入年卡~

使用我的邀请链接订阅GLM Coding Plan,还能再打9折:GLM Coding Plan邀请9折


本指南将引导您完成安装 Codex ,并通过API方式配置 Kimi K2GLM-4.6 模型,以更实惠的方式来AI编程。

1、安装 Node.js

在开始之前,您的系统需要安装好 Node.js。

验证安装:安装完成后,打开您的终端(Terminal)或命令提示符(CMD),运行以下命令来验证。

node -v 

如果成功安装,将会显示 Node.js 的版本号(如图绿框中的)。

在这里插入图片描述

下载与安装:请前往 Node.js 官方网站 下载并安装最新版本的 Node.js(建议使用 v18 或更高版本)。根据您的操作系统下载对应的安装包。

在这里插入图片描述

2、安装 Codex

接下来,我们将全局安装 Codex NPM 包。此步骤在不同操作系统下的主要区别在于是否需要管理员权限。

注意:为了获得最佳的安装体验,建议连接稳定的网络环境(例如使用科学上网)运行安装命令。

2.1、Windows

    1. 管理员身份 打开您的 命令提示符(CMD)PowerShell

输入并运行以下安装命令:

npminstall -g @openai/codex 
在这里插入图片描述

2.2、macOS / Ubuntu

    1. 打开您的 终端(Terminal)
    1. 由于全局安装 npm 包需要系统权限,您需要在命令前加上 sudo

输入并运行以下安装命令(过程中会提示您输入电脑的登录密码):

sudonpminstall -g @openai/codex 

2.3、验证安装 (所有系统通用)

安装完成后,在 新的终端窗口 中运行以下命令来验证。(旧的窗口也许可以,建议新的哈)。

codex--version 

如果终端成功返回版本号,则代表 Codex 已成功安装(绿框中的)。

在这里插入图片描述

3、获取API Key

Codex 安装成功,这时它还不能工作,因为需要登录官方或者其他模型厂商才可以。
我没有订阅GPT,因为太贵了,所以我选择了 Kimi K2和GLM-4.6的 API 来驱动Codex。
因此我们先去获取Kimi K2和GLM-4.6 的 API Key来登录。
你可以把这个API Key理解成访问密码,访问模型时需要用到这个密码哦。

3.1、获取GLM-4.6 API Key

  1. 前往 智谱AI开放平台智谱AI开放平台

申请成功后点击一下API key的复制按钮,把key复制到剪贴板中给后续使用。

在这里插入图片描述

登录后按顺序点击:右上角的头像 -> API key -> 添加新的API key -> 输入一个名字来标识这个key -> 确定。

在这里插入图片描述

创建账号并登录,系统会赠送2000万token供你试用。更建议选择月卡订阅,我自己买的20元/月的试用,日常开发足够。后续考虑升级成季度订阅~ 选择图中的立即订阅,还可以再优惠10%

在这里插入图片描述

3.2、获取Kimi K2 API Key

  1. 前往 Moonshot AI开放平台Moonshot AI开放平台
  2. 注册与登录:如果您没有账户,请先注册一个新账户并登录。
  3. 创建 API Key:在平台仪表盘中,找到创建 API Key 的选项。
  4. 关于费用
    • 新用户通常会获赠少量免费额度(例如 15 元)供测试使用。
    • 若要长期或高频率使用,建议充值至少 50 元,以解锁更高的请求速率(RPM),从而获得更流畅的体验。

重要提示:API Key 在创建后只会显示一次,请务必立即复制并妥善保存。

在这里插入图片描述

4、配置环境变量

万事俱备,只欠东风!为了让 Codex 能够成功连接到 Kimi K2和GLM-4.6,我们需要配置环境变量到Codex

4.1、Windows

您可以选择以下任一方法进行配置:

  • 方法二:使用系统属性面板
    1. 在 Windows 搜索栏中输入“环境变量”,并选择“编辑系统环境变量”。
    2. 在“系统属性”窗口中,点击“环境变量…”。
    3. 在“系统变量”区域,点击“新建…”,并添加两个新变量。

方法一:使用命令提示符
打开命令提示符(无需管理员),并执行以下两条命令。请确保将 "你的GLM_API_Key""你的Kimi_API_Key" 替换为您真实的 API Key。替换后重启一下终端。

setx GLM_API_KEY "你的GLM_API_Key" setx KIMI_API_KEY "你的Kimi_API_Key"

注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。
注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。
注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。

在这里插入图片描述

4.2、macOS / Ubuntu

在 macOS 和 Ubuntu 系统中,环境变量通常配置在 Shell 的配置文件中。

  1. 确定您的 Shell 类型
    在终端中运行 echo $SHELL
    • 如果输出包含 zsh,您的配置文件是 ~/.zshrc
    • 如果输出包含 bash,您的配置文件是 ~/.bashrc

使配置生效
运行以下命令让配置立即生效(或直接重启终端)。

# 如果您修改了 .zshrcsource ~/.zshrc # 如果您修改了 .bashrcsource ~/.bashrc 

添加环境变量
在文件的末尾,添加以下两行。请将 你的Kimi_API_Key 替换为您真实的 API Key。

exportGLM_API_KEY="你的GLM_API_Key"exportKIMI_API_KEY="你的Kimi_API_Key"

添加后,按下 Ctrl + O 保存文件,然后按 Ctrl + X 退出编辑器。

编辑配置文件
使用您喜欢的文本编辑器打开对应的文件。这里以 nano 为例(一个对新手友好的终端编辑器)。

# 如果您使用 Zsh (macOS 默认)nano ~/.zshrc # 如果您使用 Bashnano ~/.bashrc 

5、运行并配置 Codex

好,到此所有准备工作已经完成!让我们启动 Codex 吧!

  1. 打开一个新的终端窗口。

我们让他自我介绍一下,如果收到回复,就证明配置正确了(如图绿色框的回复)。

在这里插入图片描述

接着退出Codex,重新进入一下。一定要退出重进,因为我们刚改了配置嘛,需要让Codex重新加载~再次进入Codex,可以看到模型是GLM-4.6了:

在这里插入图片描述

然后打开~/.codex/config.toml文件(windows在C:\Users\你的用户名\.codex\config.toml),这里我使用vscode来打开并编辑,直接复制粘贴以下内容并保存,这里我使用GLM-4.6的模型,你要用kimi的话就把glm注释掉,然后把kimi打开:

model_provider = "glm" model = "glm-4.6" # model_provider = "kimi" # model = "kimi-k2-0905-preview" [model_providers.glm] name = "zai" base_url = "https://open.bigmodel.cn/api/coding/paas/v4" env_key = "GLM_API_KEY" [model_providers.kimi] name = "kimi" base_url = "https://api.moonshot.cn/v1" env_key = "KIMI_API_KEY" 
在这里插入图片描述

紧接着让你输入API Key,注意这里是输入的GPT官方的API Key,我们胡乱输一个确认即可:

在这里插入图片描述

输入codex 命令,你会看到让你选择登录方式,我们这里需要按方向键切换到2. Provide your own API key,回车确认:

codex 
在这里插入图片描述

6、FAQ

6.1、登录报错

  • 可能在第4步 配置环境变量 出错,需要注意windows命令行需要全部关闭,后续新开的才会生效。
  • 文章示例的GLM-4.6使用的是包月计划对应的base_url,如果你没有订阅包月套餐就会报错,可以点击这个链接包月:GLM 编程神器包月套餐·限时优惠-10%

如果你只是想试用GLM-4.6,可以把Codex的配置文件中glm的base_url改为:

https://open.bigmodel.cn/api/paas/v4/ 

6.2、使用KIMI K2对话报错或警告

使用KIMI模型时,向AI发送消息后,Codex会提示一些错误或警告, 比如这样:

在这里插入图片描述

这个原因是你没有氪金,Kimi官方赠送的免费额度每秒只能访问3次,而 Codex 会根据内置策略来多次调用api,很容易就超过每秒3次。
解决方案也很简单,氪金50块钱可以解决,哈哈哈哈。自己抉择吧~!

在这里插入图片描述

6.3、其他模型可以通过API接入吗

  • 可以,类似glm和kimi,比如deepseek,你可以去deepseek官网申请对应的api key并氪金,然后按照这篇教程配置进来。deepseek传送门:DeepSeek 开方平台

6.4、官方的配置文档参考

  • config配置:https://github.com/openai/codex/blob/main/docs/config.md
  • mcp配置:https://github.com/openai/codex/blob/main/docs/advanced.md#model-context-protocol-mcp

Read more

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk