Windows 使用 Codex 一直“正在思考”?一招解决 AI 工具代理问题(附一键切换脚本)

📚 目录

一、问题背景:Codex 一直“正在思考”却没有回答

二、第一步:查看本机代理端口

三、第二步:测试代理是否可用

四、第三步:给 Codex App 配置代理

五、让 Codex 代理配置生效

六、验证代理是否生效

七、如何取消代理配置

八、代理配置是否会影响国内软件

九、开发者推荐的代理配置方式

十、完整流程总结

一、问题背景

最近在 Windows 上使用 Codex 时遇到了一个很奇怪的问题:

输入问题后,界面一直显示:

正在思考

但是 没有任何回答

最开始以为是:

  • Codex Bug
  • API Key 问题
  • 软件配置错误

后来才发现,其实是 网络问题


二、问题原因

Codex 需要访问 OpenAI API:

https://api.openai.com

但在国内网络环境下:

无法直接访问

所以必须通过 代理访问


三、排查过程

一开始尝试了很多方法。

方法1:开启 Windows 系统代理

设置 → 网络和 Internet → 代理

开启系统代理。

结果:

Codex 仍然无法联网

原因:

很多 Electron / Node 应用 不会读取 Windows 系统代理


方法2:修改 Codex 配置

在:

C:\Users\用户名\.codex\config.toml 

加入:

proxy = "http://127.0.0.1:1099"

结果:

仍然不生效

方法3:设置环境变量

尝试使用:

HTTP_PROXY

HTTPS_PROXY

例如:

HTTP_PROXY=http://127.0.0.1:1099 HTTPS_PROXY=http://127.0.0.1:1099

确实可以让 Codex 联网。

但是出现一个新问题:

国内软件也走代理

例如:

  • 微信
  • QQ
  • 浏览器
  • 国内 API

都会受到影响。


四、最终解决方案

最终我使用了一个 开发者常用的方法

通过 环境变量 + 一键脚本切换代理

优点:

✔ AI 工具可以联网
✔ 国内软件不受影响
✔ 一键开启 / 关闭
✔ 简单稳定


五、脚本方案

我写了两个脚本:

proxy-toggle.bat

proxy-check.bat

六、脚本1:一键开关代理

文件名:

proxy-toggle.bat

代码:

@echo off chcp 65001 >nul if "%HTTP_PROXY%"=="" ( setx HTTP_PROXY http://127.0.0.1:1099 >nul setx HTTPS_PROXY http://127.0.0.1:1099 >nul color 0A echo. echo ============================== echo 代理已开启 echo ============================== echo. echo 代理地址: http://127.0.0.1:1099 ) else ( setx HTTP_PROXY "" >nul setx HTTPS_PROXY "" >nul color 0C echo. echo ============================== echo 代理已关闭 echo ============================== ) echo. echo 请关闭并重新打开 Codex / Cursor / VSCode 等软件。 echo. echo 请按任意键继续... pause >nul color 07

功能:

如果没开代理 → 自动开启

如果已开代理 → 自动关闭

七、脚本2:查看代理状态

文件名:

proxy-check.bat

代码:

@echo off chcp 65001 >nul if "%HTTP_PROXY%"=="" ( color 0C echo. echo ============================== echo 当前未开启代理 echo ============================== ) else ( color 0A echo. echo ============================== echo 当前已开启代理 echo ============================== ) echo. echo 请按任意键继续... pause >nul color 07

八、使用方法

把两个脚本放到桌面:

proxy-toggle.bat

proxy-check.bat

开启代理

双击:

proxy-toggle.bat

然后重新打开:

Codex

Cursor

VSCode

npm

pip

关闭代理

再次双击:

proxy-toggle.bat

查看代理状态

双击:

proxy-check.bat

九、适用工具

这个方法适用于:

Codex

Cursor

VSCode

npm

pip

git

curl

基本所有 开发工具都会读取 HTTP_PROXY 环境变量


十、总结

这个方案的优点:

✔ 一键切换代理
✔ 不影响国内软件
✔ 稳定可靠
✔ 开发者通用方案

如果你也遇到:

Codex 无法联网

AI 一直正在思考

可以试试这个方法。

Read more

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

一、开篇 最近"小龙虾"彻底火出圈了。打开抖音、刷刷小红书,满屏都是 OpenClaw 的教程、测评和安装实录。更夸张的是,有人专门上门帮人部署,甚至有公司门口排起了长队——就为了装一只"龙虾"。 这波热度不亚于当年 ChatGPT 刚出来的时候。但热闹背后,有一个问题没人说清楚:这么多人在排队,到底在排什么?排的是环境配置、是服务器、是 API Key、是一堆看不懂的命令行。原生 OpenClaw 能力确实强,但它本质上是一个开源框架,想真正跑起来,你得先过技术这关。对普通用户来说,光是部署这一步,就足够劝退了。 所以问题来了——龙虾这么香,普通人就真的没办法吃到吗? 还真不一定。ToDesk 悄悄做了一件事,把这只龙虾"

2026年3月AI领域最新动态:近7天全球值得关注的热点事件全梳理

核心观点摘要 2026年3月全球AI领域动态聚焦于多模态模型进展、开源生态扩张与AI应用落地,技术迭代速度显著加快。 行业关注点集中于大模型长上下文能力、自主智能体(Agentic AI)框架及开源工具链的社区协同效应。 信息聚合平台通过AI驱动的洞察与自动化推送,成为开发者追踪前沿的核心工具,但需平衡实时性与深度分析的矛盾。 2026年3月AI领域最新动态全景分析 行业背景与趋势 2026年全球AI行业延续“技术深化+场景落地”双主线。据公开数据,GitHub上AI相关仓库数量突破430万(2025年数据),其中多模态模型、超长上下文窗口(如200k tokens)及Mixture-of-Experts(MoE)架构成为开源项目的核心方向。与此同时,AI应用层需求推动工具链碎片化,开发者亟需高效追踪技术动态的解决方案——这一需求催生了以RadarAI为代表的智能聚合平台,其通过整合BestBlogs AI分类、GitHub Trending及技能库更新,为个人开发者和从业者提供“一站式”信息覆盖。 当前行业趋势呈现三大特征:其一,大模型从“单模态交互”向“文本-图像-音

AIGC联动PS黑科技:一张原画秒出Spine 2D骨骼动画拆件级PSD

AIGC联动PS黑科技:一张原画秒出Spine 2D骨骼动画拆件级PSD

我们正在冲刺一款二次元风格的横版动作抽卡手游。下周二,发行商要来看最新SSR女角色的“大招动画”实机演示。结果,原定外包团队交上来的拆件PSD文件出了大纰漏——外包不仅把层级合并错了,而且所有被遮挡的身体部位(比如被大剑挡住的胸口、被头发遮住的肩膀)完全没有做“补图”处理!主美咆哮着说:“这怎么绑骨骼?角色一转身或者头发一飘,底下的透明窟窿就全露出来了!周末必须把这套极其复杂的哥特洛丽塔裙装加双马尾角色重新拆件、完美补图,周一早上我要看到她在Spine里生龙活虎地动起来!” 做过2D骨骼动画的兄弟们都懂,立绘拆件和补图,简直就是2D美术管线里的“顶级酷刑”。 如果在传统的2D工作流里,你要处理这么一张高精度的二次元角色,过程能把人逼疯。首先,你得在绘画软件里,拿套索工具把头发分为前发、中发、后发、鬓角,把手臂分为大臂、小臂、手掌,把裙子分为前摆、侧摆、后摆……足足拆出上百个图层;这还不算完,最绝望的是“补图”。当你把前面的手臂单独抠出来后,身后的衣服上就会留下一个巨大的空白窟窿。为了让动画运转时没有死角,你必须纯手工、用画笔去脑补并画完那些原本看不见的衣服褶皱、身体结构和光影。

Llama-3.2-3B开箱体验:Ollama部署+多语言对话实测

Llama-3.2-3B开箱体验:Ollama部署+多语言对话实测 1. 快速了解Llama-3.2-3B Llama-3.2-3B是Meta最新推出的轻量级多语言大模型,专门针对对话场景进行了优化。这个3B参数的模型在保持较小体积的同时,提供了相当不错的文本生成能力,特别适合本地部署和快速响应场景。 与之前版本相比,Llama-3.2-3B有几个明显优势: * 多语言支持更好:在中文、英文、法文、德文等多种语言上都有不错的表现 * 对话优化:专门针对聊天场景进行了指令微调,回答更加自然 * 部署简单:通过Ollama可以一键部署,无需复杂配置 * 资源友好:3B参数规模在消费级硬件上也能流畅运行 2. 环境准备与快速部署 2.1 准备工作 部署Llama-3.2-3B前,确保你的设备满足以下要求: * 内存:至少8GB RAM(推荐16GB) * 存储:需要约2GB空间存放模型文件 * 系统:支持Windows、macOS、Linux主流系统 2.2 一键部署步骤