AI三分钟第1弹|3分钟学会给Cursor配置代理

AI三分钟第1弹|3分钟学会给Cursor配置代理

文章目录

什么是AI三分钟?

《AI三分钟》专栏旨在提供短小精悍的AI工具使用技巧或者知识

在这个时间碎片化、知识碎片化的时代

用最精炼的语言和最生动的故事

3分钟完成一项干货的科普
专栏封面

正文

拿去用

方法一:直接用博主的配置文件(推荐)

  1. 打开Cursor,按 Cmd + Shift + P(Mac)或 Ctrl + Shift + P(Windows)打开检索框
  2. 重启Cursor使代理设置生效
  3. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面

将HTTP协议改成HTTP1.1

image-20260212134912038

粘贴博主编辑好的配置(全部覆盖,覆盖前请自行备份之前的用户设置)

{ "http.proxy": "http://127.0.0.1:7890", // 你的魔法软件代理地址 "http.proxySupport": "override", "http.proxyStrictSSL": false, "http.noProxy": [], "git.enableSmartCommit": true, "explorer.confirmDelete": false, "cursor.composer.shouldChimeAfterChatFinishes": true, "workbench.colorTheme": "Solarized Light", "cursor.general.disableHttp2": true } 

在检索框里搜索“User”,并打开搜索结果中的“Open User Settings(JSON)”

image-20260212134442221

image-20260212135228436

方法二:在 Cursor 设置里填代理

  1. 打开 Cursor,按 Cmd + ,(Mac)或 Ctrl + ,(Windows)打开设置
  2. 搜索框输入 proxy
  3. Http: Proxy 中填入你的代理地址,例如:http://127.0.0.1:7890socks5://127.0.0.1:7890(需自备魔法软件并允许局域网连接)
  4. 若代理需要校验 HTTPS,可勾选 Http: Proxy Strict SSL 或按需关闭
  5. 重启 Cursor 使代理生效
  6. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面
  7. 将HTTP协议改成HTTP1.1

image-20260212133703005
image-20260212134912038
image-20260212135228436

如何验证配置是否成功?

首先不要使用Cursor的网络诊断工具

因为可能会出现明明没有配置成功

但是诊断工具却显示成功

并且能使用auto模型(走的还是常规网络,用不了很多模型)

最好的验证方式就是直接和Agent聊天,手动切换到拥有魔法才能聊天的模型(博主用的是Sonnet4.5测试)

  1. 选择claude系列(opus、sonnet、haiku)、gpt系列(GPT-5.3 Codex)、谷歌系列(Gemini 3 Pro),这些都是需要魔法才能使用的模型
  2. 和他们对话,任何话题都可以,只要正常响应就是成功了(如下图)

关闭auto后弹出选择模型的列表

image-20260212140626192
image-20260212140323002

只是寻找解决方案的朋友看到这里就足够了,后文是知识点讲解
讲清楚

Cursor 基于 VS Code(Electron)

和 VS Code 一样,通过 Http: Proxy 控制发往网络的请求走哪条通道

你在设置里填的 http://...socks5://... 会被用于拉模型、调 API、检查更新等

所以填对一次即可全局生效

环境变量 HTTP_PROXY / HTTPS_PROXY 是很多命令行和 Electron 应用的通用约定

在「先设变量再启动」的场景下同样有效

系统代理则依赖系统 API,有时只对部分请求生效

所以遇到问题时,优先用 Cursor 自带代理设置更稳

可以把 Cursor 想象成「要出门的人」、代理是「小区门卫」:你填的 Http: Proxy 就是告诉 Cursor「以后出门都先经过这个门卫」,门卫再帮你转发到外网;环境变量则是你在「出门前」先跟整台电脑说好「所有从这台机器出去的请求都走门卫」,Cursor 启动时就会继承这句话;系统代理则是「小区统一规定」,有的程序听、有的不听,不如自己当面说清楚稳当。

Cursor 代理配置

设置内填 Http Proxy

打开设置 Cmd/Ctrl + ,

搜索 proxy

填代理地址

重启生效

环境变量

HTTP_PROXY

HTTPS_PROXY

先设再启动 Cursor

系统代理

部分请求跟随

不稳时改用设置内填


记住它
  • Http: Proxy:在 Cursor 设置里填一次,所有拉模型、调 API、更新都走这条通道。
  • 环境变量 HTTP_PROXY / HTTPS_PROXY:在启动 Cursor 前设好,适合脚本或全局走代理。
  • 系统代理:依赖系统 API,只对部分请求生效,不稳时优先用设置内显式填写。
  • 本地代理地址:常见为 http://127.0.0.1:端口socks5://127.0.0.1:端口,端口以你本地代理软件为准(如 7890、1080)。

结语

点关注不迷路,UP带你上高速

引用

Cursor 官方文档

版权信息

© 2026 老邋遢(笔名) 版权所有

原创内容,转载请注明出处

Read more

人工智能:深度学习模型的优化策略与实战调参

人工智能:深度学习模型的优化策略与实战调参

人工智能:深度学习模型的优化策略与实战调参 💡 学习目标:掌握深度学习模型的核心优化方法,理解调参的底层逻辑,能够独立完成模型从欠拟合到高性能的调优过程。 💡 学习重点:正则化技术的应用、优化器的选择与参数调整、批量大小与学习率的匹配策略。 48.1 模型优化的核心目标与常见问题 在深度学习项目中,我们训练的模型往往会出现欠拟合或过拟合两种问题。优化的核心目标就是让模型在训练集和测试集上都能达到理想的性能,实现泛化能力的最大化。 ⚠️ 注意:模型优化不是一次性操作,而是一个“诊断-调整-验证”的循环过程,需要结合数据特性和任务需求逐步迭代。 48.1.1 欠拟合的识别与特征 欠拟合是指模型无法捕捉数据中的潜在规律,表现为训练集和测试集的准确率都偏低。 出现欠拟合的常见原因有以下3点: 1. 模型结构过于简单,无法拟合复杂的数据分布。 2. 训练数据量不足,或者数据特征维度太低。 3. 训练轮次不够,模型还未充分学习到数据的特征。 48.1.2 过拟合的识别与特征 过拟合是指模型在训练集上表现极好,但在测试集上性能大幅下降。 出现过拟合的常见原因有以下3点:

Claude Code安装与使用完全指南:2026 年最前沿的 AI 编程助手

Claude Code安装与使用完全指南:2026 年最前沿的 AI 编程助手

文章目录 * 前言 * 一、什么是 Claude Code? * 1.1 定义与定位 * 1.2 技术优势 * 二、安装前的环境准备 * 2.1 系统要求 * 2.2 前置依赖 * 三、Claude Code 全平台安装教程 * 3.1 安装方式对比 * 3.2 Windows 系统安装 * 3.3 macOS 系统安装 * 3.5 安装后初始化 * 四、配置与优化 * 4.1 配置文件位置 * 4.2 跳过新手引导 * 4.3 接入国产大模型(免翻墙方案)

本地化部署方案:GraphRAG+LangChain+Ollama 驱动 LLaMa 3.1 集成 Neo4j 实战

本地化部署方案:GraphRAG+LangChain+Ollama 驱动 LLaMa 3.1 集成 Neo4j 实战

本文将带您从零开始,用不到50行核心代码实现基于本地大模型 LLaMa 3.1 的 GraphRAG 应用开发。我们将整合 LangChain 工作流、Ollama 模型管理工具与 Neo4j 图数据库,构建一套支持实体关系挖掘与混合检索的增强生成系统,全程无需依赖云端 API,兼顾数据安全与开发效率。 一、先搞懂核心概念:什么是 GraphRAG? 传统 RAG(检索增强生成)依赖向量数据库的语义相似度匹配,容易丢失实体间的关联信息。而 GraphRAG(图检索增强生成) 则通过"节点-关系"的图结构建模数据,将分散的文本块转化为结构化知识网络,让 LLM 能基于实体关联进行推理,输出更具逻辑性的答案。 其核心价值在于: * 结构化上下文:将"蒂姆·库克""苹果公司&

Llama Factory微调显存参考表:从7B到72B模型的实战验证

Llama Factory微调显存参考表:从7B到72B模型的实战验证 大语言模型微调是当前AI领域的热门技术,但显存需求往往成为实践中的拦路虎。LLaMA-Factory作为流行的微调框架,官方提供了一份显存参考表,但实际部署时我们常会遇到"理论值"与"实测值"不符的情况。本文将带你通过云实例批量验证7B到72B模型的显存占用规律,为你的微调实践提供可靠依据。 为什么需要验证显存参考表 微调大模型时,显存不足是最常见的报错原因。LLaMA-Factory官方参考表虽然给出了不同模型规模下的显存预估,但实际运行时会受到以下因素影响: * 微调方法差异:全参数微调、LoRA、QLoRA等方法对显存的需求可能相差数倍 * 精度选择:float32、bfloat16、float16等不同精度直接影响显存占用 * 批次大小和序列长度:较长的文本序列会指数级增加显存消耗 * 框架版本差异:如某些commit可能意外修改默认数据类型 这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含LLaMA-Factory的预置环境,可快速部署验证。 测试环境搭建与配置