在服务器上部署自己的 Codex:把 AI IDE 直接搬进 Linux 服务器

很多人并不是在本地电脑上真正跑程序,而是长期在服务器 / 云主机 / HPC 上工作
这个时候,如果服务器本身就有一个 AI IDE,效率会直接起飞。

今天分享一个非常实用但很多人没有提到的方案
👉 如何在服务器上部署并使用 Codex,让 AI 直接读写服务器环境。


一、为什么要在服务器上用 Codex?

先说结论:服务器 + Codex = 真正的“AI 助理”,而不只是聊天工具。

Codex 在服务器上的核心优势

  1. 直接读取服务器本地环境
    • 项目代码
    • 目录结构
    • 日志文件
    • conda / venv / Docker 环境
  2. 在你授权的前提下,直接操作服务器
    • 写代码
    • 改配置
    • 跑命令
    • 调试脚本
你给服务器装的不是一个工具,而是一个“会写代码的远程助手”。

二、前置条件说明(非常关键)

1️⃣ 服务器需要能访问外网(科学上网)

Codex 启动和登录阶段需要访问 OpenAI 服务。

合理使用机场即可
成本非常低(2 元 / 月级别)
后面我会单独写一篇「服务器科学上网最省钱方案」

好处是:

  • 服务器可以直接拉 GitHub
  • 可以直接拉 Docker
  • 不用在本地下载 → 再上传服务器

三、在服务器上安装 Codex

conda可以一键安装:

conda install -c conda-forge codex

四、启动 Codex(关键点在这里)

安装完成后,进入对应conda环境,启动服务:

conda activate codex codex 

第一次启动时会提示你选择登录方式:

  1. 使用 ChatGPT 账号登录(Plus / Business)
  2. 使用 API Key 按量计费

👉 这篇帖子重点讲 方式 1:账号登录 (API Key直接提供key就好)

注:账号登录需要gpt是 Plus / Business / pro 账号,免费用户没有codex功能


五、进行gpt账户认证

选择1之后,codex会返回给我们一个链接,

由于服务器没有浏览器,很多人会直接复制链接在自己的电脑上打开链接试图认证,

但这不会成功!!原因如下:

当你在服务器运行 codex 并选择 方式 1 时:

  • Codex 会:
    • 在服务器 本地启动一个临时端口(如 1455)
    • 等待浏览器认证回调
  • 它给你的链接本质是:
    • 浏览器登录 → 回调到服务器的 localhost:1455

六、SSH 端口转发进行认证

因此需要用自己的PC端ssh端口转发服务器,链接后启动服务器

ssh -L 1455:127.0.0.1:1455 用户名@服务器IP codex

此时点开返还的链接登录认证即可,后续 不需要每次重新登录。

此时大家只要启动codex就可以开始愉快的对话和授权了,希望大家玩的愉快🙂

Read more

2026必备10个降AIGC工具,研究生必看!

2026必备10个降AIGC工具,研究生必看!

2026必备10个降AIGC工具,研究生必看! AI降重工具:论文写作的隐形助手 随着人工智能技术的迅猛发展,学术研究领域也迎来了前所未有的变革。尤其是在研究生阶段,论文写作已成为一项核心任务,而如何有效降低AIGC率、去除AI痕迹、避免查重问题,成为许多学生面临的共同挑战。传统的人工修改方式不仅耗时费力,还难以确保语义的连贯性和逻辑的严密性。此时,AI降重工具应运而生,为学术写作提供了全新的解决方案。 这些工具的核心优势在于能够智能识别并优化文本中的AI痕迹,同时在不改变原意的前提下,对语言表达进行润色和调整,从而显著降低查重率。无论是初稿的快速处理,还是定稿前的精细打磨,AI降重工具都能提供高效、专业的支持。它们不仅能帮助学生节省大量时间,还能提升论文的整体质量,让学术表达更加自然流畅。 工具名称主要功能适用场景千笔强力去除AI痕迹、保语义降重AI率过高急需降重云笔AI多模式降重初稿快速处理锐智 AI综合查重与降重定稿前自查文途AI操作简单片段修改降重鸟同义词替换小幅度修改笔杆在线写作辅助辅助润色维普官方查重最终检测万方数据库查重数据对比Turnitin国际通用检测留

下班后上门装OpenClaw,一天赚1500元:普通人如何抓住AI时代的红利

下班后上门装OpenClaw,一天赚1500元:普通人如何抓住AI时代的红利

最近,"上门安装OpenClaw"成了闲鱼、小红书上的热门关键词。 单价从100元到1500元不等。很多人下班后做做,一天就能赚上千元。 这本质上是一个信息差机会。勇敢的人已经先赚钱了。 信息差永远存在 OpenClaw的安装,技术上说并不复杂。安装步骤也就几行命令: 但对很多普通人来说,这几行命令就是整不明白。 他们有需求,有预算,甚至愿意支付溢价,但他们需要有人帮他们。 这就是信息差。 技术对一部分人来说是日常,但对大部分人来说就是无法跨域。这中间,就是机会。 为什么这个需求是真实的? 很多人不理解:不就是安装个软件吗,为什么愿意花上千元? 因为他们买的是"可用性",不是"软件本身"。 想象一下: * 你是自由职业者,每天要浪费时间收集素材,制作内容。如果能有一个AI助手24小时帮你处理这些事情。 * 你是投资者,需要获取市场的信息动态,如果有AI助手可以实时的抓取互联网信息,定时分析后推送给你,是不是可以辅助你做决策。 * 你是传统行业的小老板,听说了AI的风潮,

多模态 AI 应用:图文音视频一体化开发实战教程

多模态 AI 应用:图文音视频一体化开发实战教程

什么是多模态AI 多模态AI是指能够同时处理文本、图像、音频、视频等多种不同类型数据的人工智能系统,它打破了单模态AI的信息壁垒,能更贴近人类理解世界的方式。比如我们日常使用的AI聊天机器人识图功能、视频自动字幕生成工具,都是多模态AI的典型应用。 开发前的核心准备 模型选型建议 模型类型推荐模型适用场景开源轻量模型Qwen-VL-Chat、MiniGPT-4本地部署、快速验证云端API模型GPT-4V、Gemini Pro生产级应用、复杂任务处理专业领域模型CLIP、Whisper图像检索、音频转写等细分场景 环境依赖安装 我们将基于Python生态实现实战项目,需要安装以下核心库: # 基础依赖 pip install torch torchvision transformers pillow # 音频处理依赖 pip install librosa soundfile # 视频处理依赖 pip install opencv-python moviepy # API调用依赖(可选,用于调用云端多模态模型) pip install openai anthropic

xinference+deepseek-r1-distill-llama本地部署完整流程

xinference+deepseek-r1-distill-llama本地部署完整流程

Xinference+deepseek-r1-distill-llama本地部署完整流程 目录 * Xinference+deepseek-r1-distill-llama本地部署完整流程 * 一、创建虚拟机实例 * 二、虚拟机环境搭建 * 前置环境部署 * yum源更换并部署docker服务 * 显驱安装 * 配置NVIDIA容器工具包 * 三、拉取镜像启动容器 * 拉取Xinference镜像 * 启动容器 * 四、可视化部署模型 包含虚拟机创建、前置环境搭建(yum源更换、显驱安装、配置NVIDIA容器工具包、部署docker服务)、拉取Xinference镜像、下载并启动deepseek模型 实例所需配置如下: 服务器宿主机型号:H3C R4900 G5 CPU:Intel Xeon Silver 4314 内存:32G(虚拟机创建) GPU:NVIDIA GeForce RTX 4090 硬盘:200G(虚拟机创建最好大一些,如果硬盘不够