AI三分钟第1弹|3分钟学会给Cursor配置代理

AI三分钟第1弹|3分钟学会给Cursor配置代理

文章目录

什么是AI三分钟?

《AI三分钟》专栏旨在提供短小精悍的AI工具使用技巧或者知识

在这个时间碎片化、知识碎片化的时代

用最精炼的语言和最生动的故事

3分钟完成一项干货的科普
专栏封面

正文

拿去用

方法一:直接用博主的配置文件(推荐)

  1. 打开Cursor,按 Cmd + Shift + P(Mac)或 Ctrl + Shift + P(Windows)打开检索框
  2. 重启Cursor使代理设置生效
  3. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面

将HTTP协议改成HTTP1.1

image-20260212134912038

粘贴博主编辑好的配置(全部覆盖,覆盖前请自行备份之前的用户设置)

{ "http.proxy": "http://127.0.0.1:7890", // 你的魔法软件代理地址 "http.proxySupport": "override", "http.proxyStrictSSL": false, "http.noProxy": [], "git.enableSmartCommit": true, "explorer.confirmDelete": false, "cursor.composer.shouldChimeAfterChatFinishes": true, "workbench.colorTheme": "Solarized Light", "cursor.general.disableHttp2": true } 

在检索框里搜索“User”,并打开搜索结果中的“Open User Settings(JSON)”

image-20260212134442221

image-20260212135228436

方法二:在 Cursor 设置里填代理

  1. 打开 Cursor,按 Cmd + ,(Mac)或 Ctrl + ,(Windows)打开设置
  2. 搜索框输入 proxy
  3. Http: Proxy 中填入你的代理地址,例如:http://127.0.0.1:7890socks5://127.0.0.1:7890(需自备魔法软件并允许局域网连接)
  4. 若代理需要校验 HTTPS,可勾选 Http: Proxy Strict SSL 或按需关闭
  5. 重启 Cursor 使代理生效
  6. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面
  7. 将HTTP协议改成HTTP1.1

image-20260212133703005
image-20260212134912038
image-20260212135228436

如何验证配置是否成功?

首先不要使用Cursor的网络诊断工具

因为可能会出现明明没有配置成功

但是诊断工具却显示成功

并且能使用auto模型(走的还是常规网络,用不了很多模型)

最好的验证方式就是直接和Agent聊天,手动切换到拥有魔法才能聊天的模型(博主用的是Sonnet4.5测试)

  1. 选择claude系列(opus、sonnet、haiku)、gpt系列(GPT-5.3 Codex)、谷歌系列(Gemini 3 Pro),这些都是需要魔法才能使用的模型
  2. 和他们对话,任何话题都可以,只要正常响应就是成功了(如下图)

关闭auto后弹出选择模型的列表

image-20260212140626192
image-20260212140323002

只是寻找解决方案的朋友看到这里就足够了,后文是知识点讲解
讲清楚

Cursor 基于 VS Code(Electron)

和 VS Code 一样,通过 Http: Proxy 控制发往网络的请求走哪条通道

你在设置里填的 http://...socks5://... 会被用于拉模型、调 API、检查更新等

所以填对一次即可全局生效

环境变量 HTTP_PROXY / HTTPS_PROXY 是很多命令行和 Electron 应用的通用约定

在「先设变量再启动」的场景下同样有效

系统代理则依赖系统 API,有时只对部分请求生效

所以遇到问题时,优先用 Cursor 自带代理设置更稳

可以把 Cursor 想象成「要出门的人」、代理是「小区门卫」:你填的 Http: Proxy 就是告诉 Cursor「以后出门都先经过这个门卫」,门卫再帮你转发到外网;环境变量则是你在「出门前」先跟整台电脑说好「所有从这台机器出去的请求都走门卫」,Cursor 启动时就会继承这句话;系统代理则是「小区统一规定」,有的程序听、有的不听,不如自己当面说清楚稳当。

Cursor 代理配置

设置内填 Http Proxy

打开设置 Cmd/Ctrl + ,

搜索 proxy

填代理地址

重启生效

环境变量

HTTP_PROXY

HTTPS_PROXY

先设再启动 Cursor

系统代理

部分请求跟随

不稳时改用设置内填


记住它
  • Http: Proxy:在 Cursor 设置里填一次,所有拉模型、调 API、更新都走这条通道。
  • 环境变量 HTTP_PROXY / HTTPS_PROXY:在启动 Cursor 前设好,适合脚本或全局走代理。
  • 系统代理:依赖系统 API,只对部分请求生效,不稳时优先用设置内显式填写。
  • 本地代理地址:常见为 http://127.0.0.1:端口socks5://127.0.0.1:端口,端口以你本地代理软件为准(如 7890、1080)。

结语

点关注不迷路,UP带你上高速

引用

Cursor 官方文档

版权信息

© 2026 老邋遢(笔名) 版权所有

原创内容,转载请注明出处

Read more

政安晨【零基础玩转开源AI项目】OpenClaw飞书通信端机器人配置指南(手把手配置OpenClaw飞书/Lark机器人,实现多渠道AI助手集成)(作者自己配置时留存使用,小伙伴们可酌情参考)

政安晨【零基础玩转开源AI项目】OpenClaw飞书通信端机器人配置指南(手把手配置OpenClaw飞书/Lark机器人,实现多渠道AI助手集成)(作者自己配置时留存使用,小伙伴们可酌情参考)

政安晨的个人主页:政安晨 欢迎 👍点赞✍评论⭐收藏 希望政安晨的博客能够对您有所裨益,如有不足之处,欢迎在评论区提出指正! 目录 一、前言 1.1 为什么需要配置飞书机器人? 1.2 飞书机器人支持的功能 二、准备工作 2.1 环境要求 2.2 OpenClaw安装(本篇主要介绍飞书端的配置,这里可参考我上一篇博客) 2.3 飞书账号要求 三、飞书应用创建 3.1 创建企业应用 3.2 获取应用凭证 编辑3.3 开通权限 3.4 配置事件订阅 Webhook URL配置 订阅事件 3.5

探索 SVG(静止无功发生器)基于 DSP + FPGA 主板的源码世界

探索 SVG(静止无功发生器)基于 DSP + FPGA 主板的源码世界

SVG 静止无功发生器 源码 dsp+FPGA主板 在电力系统领域,SVG(静止无功发生器)可是个相当重要的角色,它能快速补偿无功功率,提升电能质量。而实现 SVG 功能的核心之一,便是搭载了 DSP + FPGA 的主板,今天咱们就来扒一扒与之相关的源码奥秘。 DSP 在 SVG 中的角色与代码示意 DSP(数字信号处理器)擅长高速数据处理与复杂算法运算。在 SVG 系统里,它承担着数据采集分析、控制算法执行等关键任务。 先来看一段简单的 DSP 采集电流数据的代码示例(以 C 语言为例,这里只是示意核心逻辑,实际工程代码会更复杂且需适配具体芯片): #include <stdio.h> // 假设 ADC 转换后的数据存储在这个数组 int adc_current_

如何在MacBook上零配置运行Llama.cpp?手把手教你部署INT4量化大模型

在MacBook上零配置运行Llama.cpp:手把手部署INT4量化大模型实战指南 如果你和我一样,是个喜欢在本地折腾大模型的开发者,肯定遇到过这样的困扰:想在自己的MacBook上跑个像样的语言模型,要么得忍受臃肿的Python环境,要么就得面对复杂的配置和编译过程。更别提那些动辄几十GB的模型文件,光是下载就让人望而却步。 但最近我发现了一个宝藏项目——Llama.cpp,它彻底改变了我的工作流。这个用C++编写的推理框架,最大的魅力就在于它的“轻”和“快”。特别是对Mac用户来说,它原生支持Apple Silicon芯片,能够充分利用M系列芯片的神经引擎和统一内存架构。最让我惊喜的是,通过INT4量化技术,一个70亿参数的模型可以压缩到仅4GB左右,在我的MacBook Pro上就能流畅运行,响应速度甚至比某些云端API还要快。 这篇文章,我想和你分享我过去几个月在Mac上部署Llama.cpp的完整经验。我不会给你一堆枯燥的理论,而是直接带你上手操作,从环境准备到模型选择,从性能调优到实际应用,每一步都有详细的说明和避坑指南。无论你是想快速体验大模型的能力,还是需要在本

Whisper.cpp与Paraformer对比:本地化语音识别性能实测报告

Whisper.cpp与Paraformer对比:本地化语音识别性能实测报告 1. 为什么需要本地语音识别?——从云端到桌面的真实需求 你有没有遇到过这些情况: * 开会录音转文字,上传到某平台要等半天,还担心隐私泄露; * 做访谈整理,反复听30分钟音频,手动敲字敲到手腕酸; * 写材料时想边说边记,但在线ASR一卡顿就断句,还得重录。 这些问题背后,是一个被长期忽视的现实:语音识别不该只活在云端。 本地化ASR(Automatic Speech Recognition)正在成为越来越多技术用户、内容创作者甚至中小团队的刚需——它不依赖网络、不上传原始音频、响应快、可定制、还能离线运行。而今天我们要实测的两个代表:Whisper.cpp(C++轻量版OpenAI Whisper)和Speech Seaco Paraformer(基于阿里FunASR优化的中文专用模型),正是当前本地部署场景下最常被拿来比较的两套方案。 它们不是实验室玩具,而是真正能放进你笔记本、NVIDIA小显卡服务器、甚至国产ARM盒子跑起来的工具。本文不讲论文、不堆参数,只用同一台机器、同一组