AI三分钟第1弹|3分钟学会给Cursor配置代理

AI三分钟第1弹|3分钟学会给Cursor配置代理

文章目录

什么是AI三分钟?

《AI三分钟》专栏旨在提供短小精悍的AI工具使用技巧或者知识

在这个时间碎片化、知识碎片化的时代

用最精炼的语言和最生动的故事

3分钟完成一项干货的科普
专栏封面

正文

拿去用

方法一:直接用博主的配置文件(推荐)

  1. 打开Cursor,按 Cmd + Shift + P(Mac)或 Ctrl + Shift + P(Windows)打开检索框
  2. 重启Cursor使代理设置生效
  3. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面

将HTTP协议改成HTTP1.1

image-20260212134912038

粘贴博主编辑好的配置(全部覆盖,覆盖前请自行备份之前的用户设置)

{ "http.proxy": "http://127.0.0.1:7890", // 你的魔法软件代理地址 "http.proxySupport": "override", "http.proxyStrictSSL": false, "http.noProxy": [], "git.enableSmartCommit": true, "explorer.confirmDelete": false, "cursor.composer.shouldChimeAfterChatFinishes": true, "workbench.colorTheme": "Solarized Light", "cursor.general.disableHttp2": true } 

在检索框里搜索“User”,并打开搜索结果中的“Open User Settings(JSON)”

image-20260212134442221

image-20260212135228436

方法二:在 Cursor 设置里填代理

  1. 打开 Cursor,按 Cmd + ,(Mac)或 Ctrl + ,(Windows)打开设置
  2. 搜索框输入 proxy
  3. Http: Proxy 中填入你的代理地址,例如:http://127.0.0.1:7890socks5://127.0.0.1:7890(需自备魔法软件并允许局域网连接)
  4. 若代理需要校验 HTTPS,可勾选 Http: Proxy Strict SSL 或按需关闭
  5. 重启 Cursor 使代理生效
  6. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面
  7. 将HTTP协议改成HTTP1.1

image-20260212133703005
image-20260212134912038
image-20260212135228436

如何验证配置是否成功?

首先不要使用Cursor的网络诊断工具

因为可能会出现明明没有配置成功

但是诊断工具却显示成功

并且能使用auto模型(走的还是常规网络,用不了很多模型)

最好的验证方式就是直接和Agent聊天,手动切换到拥有魔法才能聊天的模型(博主用的是Sonnet4.5测试)

  1. 选择claude系列(opus、sonnet、haiku)、gpt系列(GPT-5.3 Codex)、谷歌系列(Gemini 3 Pro),这些都是需要魔法才能使用的模型
  2. 和他们对话,任何话题都可以,只要正常响应就是成功了(如下图)

关闭auto后弹出选择模型的列表

image-20260212140626192
image-20260212140323002

只是寻找解决方案的朋友看到这里就足够了,后文是知识点讲解
讲清楚

Cursor 基于 VS Code(Electron)

和 VS Code 一样,通过 Http: Proxy 控制发往网络的请求走哪条通道

你在设置里填的 http://...socks5://... 会被用于拉模型、调 API、检查更新等

所以填对一次即可全局生效

环境变量 HTTP_PROXY / HTTPS_PROXY 是很多命令行和 Electron 应用的通用约定

在「先设变量再启动」的场景下同样有效

系统代理则依赖系统 API,有时只对部分请求生效

所以遇到问题时,优先用 Cursor 自带代理设置更稳

可以把 Cursor 想象成「要出门的人」、代理是「小区门卫」:你填的 Http: Proxy 就是告诉 Cursor「以后出门都先经过这个门卫」,门卫再帮你转发到外网;环境变量则是你在「出门前」先跟整台电脑说好「所有从这台机器出去的请求都走门卫」,Cursor 启动时就会继承这句话;系统代理则是「小区统一规定」,有的程序听、有的不听,不如自己当面说清楚稳当。

Cursor 代理配置

设置内填 Http Proxy

打开设置 Cmd/Ctrl + ,

搜索 proxy

填代理地址

重启生效

环境变量

HTTP_PROXY

HTTPS_PROXY

先设再启动 Cursor

系统代理

部分请求跟随

不稳时改用设置内填


记住它
  • Http: Proxy:在 Cursor 设置里填一次,所有拉模型、调 API、更新都走这条通道。
  • 环境变量 HTTP_PROXY / HTTPS_PROXY:在启动 Cursor 前设好,适合脚本或全局走代理。
  • 系统代理:依赖系统 API,只对部分请求生效,不稳时优先用设置内显式填写。
  • 本地代理地址:常见为 http://127.0.0.1:端口socks5://127.0.0.1:端口,端口以你本地代理软件为准(如 7890、1080)。

结语

点关注不迷路,UP带你上高速

引用

Cursor 官方文档

版权信息

© 2026 老邋遢(笔名) 版权所有

原创内容,转载请注明出处

Read more

AI安全高阶:AI模型可解释性与安全防护的结合

AI安全高阶:AI模型可解释性与安全防护的结合

AI安全高阶:AI模型可解释性与安全防护的结合 📝 本章学习目标:本章深入探讨高阶主题,适合有一定基础的读者深化理解。通过本章学习,你将全面掌握"AI安全高阶:AI模型可解释性与安全防护的结合"这一核心主题。 一、引言:为什么这个话题如此重要 在AI技术快速发展的今天,AI安全高阶:AI模型可解释性与安全防护的结合已经成为每个AI从业者和企业管理者必须了解的核心知识。随着AI应用的深入,安全风险、合规要求、治理挑战日益凸显,掌握这些知识已成为AI时代的基本素养。 1.1 背景与意义 💡 核心认知:AI安全、合规与治理是AI健康发展的三大基石。安全是底线,合规是保障,治理是方向。三者相辅相成,缺一不可。 近年来,AI安全事件频发,合规要求日益严格,治理挑战不断升级。从数据泄露到算法歧视,从隐私侵犯到伦理争议,AI发展面临前所未有的挑战。据统计,超过60%的企业在AI应用中遇到过安全或合规问题,造成的经济损失高达数十亿美元。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开:

By Ne0inhk
医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(八)

医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(八)

第15章 模型融合与集成策略 在机器学习竞赛和实际应用中,模型融合(Model Ensemble)是提升预测性能的利器。通过组合多个不同的基模型,集成策略能够综合各个模型的优势,抵消单个模型的偏差和方差,从而获得比任何单一模型更稳定、更准确的预测结果。在医疗AI领域,模型融合同样具有重要价值——面对复杂多模态的医疗数据,单一模型往往难以全面捕捉所有信息,而融合多个异质模型可以提升诊断的鲁棒性和准确性。本章将从集成学习的基本思想出发,系统介绍常见的模型融合方法,包括投票法、平均法、Stacking、Blending等,并通过实战案例展示如何构建融合模型来提升疾病预测性能。 15.1 集成学习的基本思想 集成学习(Ensemble Learning)的核心思想是“三个臭皮匠,顶个诸葛亮”——通过结合多个学习器来完成学习任务,通常可以获得比单一学习器更优越的泛化性能。根据个体学习器的生成方式,集成学习主要分为两大类: * Bagging:并行训练多个独立的基学习器,然后通过平均或投票进行结合。典型代表是随机森林。Bagging主要降低方差。 * Boosting:串行训练基学习

By Ne0inhk
Spring AI 集成国内大模型实战:千问/豆包(含多模态)+ Spring Boot 4.0.1 全攻略

Spring AI 集成国内大模型实战:千问/豆包(含多模态)+ Spring Boot 4.0.1 全攻略

引言 Spring AI 作为 Spring 官方推出的 AI 开发框架,极大简化了 Java 开发者集成大模型的流程;而 Spring Boot 4.0.1 作为最新稳定版,凭借 Java 17+ 优化、原生镜像等特性,能让 AI 应用兼具开发效率与运行性能。 国内开发者常面临的痛点是:如何基于 Spring AI 适配阿里通义千问、字节豆包等本土化大模型?是否支持多模态(图文问答)能力?本文将从「环境准备→文本交互集成→多模态能力落地」全流程拆解,结合 Spring Boot 4.0.1 给出可直接复用的代码示例,覆盖国内模型的核心使用场景。 一、前置准备:

By Ne0inhk
Flutter 三方库 tiktoken 鸿蒙端侧 AI 重载计算环境适配指南:极尽压榨设备级 BPE 分词器吞吐量边界,打造工业级精控的大模型高昂运算成本阀门-适配鸿蒙 HarmonyOS ohos

Flutter 三方库 tiktoken 鸿蒙端侧 AI 重载计算环境适配指南:极尽压榨设备级 BPE 分词器吞吐量边界,打造工业级精控的大模型高昂运算成本阀门-适配鸿蒙 HarmonyOS ohos

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 tiktoken 鸿蒙端侧 AI 重载计算环境适配指南:极尽压榨设备级 BPE 分词器吞吐量边界,打造工业级精控的大模型高昂运算成本阀门防线 在开发鸿蒙平台的生成式 AI 应用(如大模型助手、智能写作或 Rerank 逻辑)时,如何精确预估 Prompt 的消耗?如何实现窗口精度的截断?tiktoken 提供了一套完整的 OpenAI BPE(字节对编码)分词算法实现。本文将详解该库在 OpenHarmony 上的适配要点。 前言 什么是 tiktoken?它是 OpenAI 为其 GPT 系列模型推出的高性能 BPE 分词器。不同于常规的字符计数,Token 是模型处理文本的最小单位。在鸿蒙操作系统强调的“

By Ne0inhk