解决 VSCode Remote-SSH/Copilot 在远程 Linux 上因 127.0.0.1:7890 代理报错的问题(完整排障记录)

适用场景:你在 本机 VSCode 需要代理(例如使用claude模型等),但通过 Remote-SSH 连接的远程 Linux 服务器并没有本地代理。VSCode Server/Copilot 在远端仍然尝试走 127.0.0.1:7890,导致联网失败、Copilot 激活失败。

现象与日志

远端 ~/.vscode-server 的日志出现:

Error: Failed to establish a socket connection to proxies: PROXY 127.0.0.1:7890 GitHub Copilot could not connect to server. Extension activation failed [LanguageModelAccess] LanguageModel/Embeddings are not available without auth token 

并能看到:

Can't use the Electron fetcher in this environment. Using the Node fetcher. 

这说明 VSCode Server(Node 侧)在 远程服务器 上试图走 127.0.0.1:7890 的代理;但这个 127.0.0.1 指的是 远程机器的本地地址,不是你笔记本/台式机的本地地址,自然连不上。


TL;DR(一分钟快修)

你需要 区分本机与远端的代理配置

  • 本机 VSCode(GUI)继续走代理http.proxy = http://127.0.0.1:7890
  • 远端 VSCode Server 不走代理:在「远端设置」里把 http.proxy 设为空字符串

步骤:

  1. 连接到远程后,打开命令面板 → Preferences: Open Remote Settings (JSON),写入:
{ "http.proxy": "", "http.proxyStrictSSL": false } 

2)(可选)在远端 shell 里清理代理环境变量:

unset http_proxy https_proxy all_proxy 
  1. 重启远端 VSCode Server(断开重连即可;如需彻底重置可执行 rm -rf ~/.vscode-server<

Read more

HTML————更实用于后端宝宝们学习的前端

HTML————更实用于后端宝宝们学习的前端

博主主攻后端,但是毕竟要做网站,我们来学习一点前端的知识,一共有三节,学完就能做一点小小的页面啦; 1.1 HTML基础 什么是HTML呢,他是超文本标记语言,还记得HTTP是啥不,HTTP是超文本传输协议,别忘了哈,超文本就是字面意思,它的能力完全超过了文本,图片,链接,音频都可以放上去,标记语言,就是由标签构成的语言; HTML的所有代码基本都是标签 <h1>我是一级标题</h1> 这个括号<h1> 就是标签,我们学习HTML大部分就是要学习这些标签,注意我们一般用两个标签来表示开始和结束,结束的标签要加上/,开始和结束标签之间就是标签内容,开始标签中可能会带有属性,比如 <h1>我是一级标题</h1> 这就是相当于给h1标签设置了一个唯一标识符, 下面来看看HTML个基本结构,  第一行不用管,第二行HTML是整个html文件的跟标签,

GLM-4.6V-Flash-WEB适用于哪些类型的图像问答场景?

GLM-4.6V-Flash-WEB适用于哪些类型的图像问答场景? 在如今的智能交互时代,用户不再满足于“上传图片 → 返回标签”的简单视觉识别模式。越来越多的应用场景要求系统不仅能“看见”图像内容,还要能“理解”并“回答”复杂问题——比如学生对着课本截图提问电路原理,客服系统自动解析用户发来的产品照片,或是企业从扫描报表中提取关键数据。 正是在这样的需求推动下,多模态大模型正从实验室走向真实业务前线。而 GLM-4.6V-Flash-WEB 的出现,恰好填补了高性能与可落地之间的空白:它不像某些重型模型那样动辄需要A100集群支撑,也不像传统OCR+规则引擎那样缺乏语义推理能力。这款由智谱AI推出的轻量化视觉语言模型,专为Web服务和高并发场景设计,在毫秒级响应与较强图文理解之间找到了极佳平衡点。 从一张菜单说起:什么是真正的图像问答? 设想这样一个场景:你走进一家餐厅,拍下纸质菜单上传到某个AI助手,然后问:“最贵的菜是什么?” 如果系统只能做OCR,它会返回一串文字列表;如果只是图像分类,可能告诉你“这是一张食物相关的图”。但真正有用的回应应该是: “牛排套餐,价格为

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例 📌 引言 在前端开发中,我们经常需要处理高频事件(如输入框输入、滚动、窗口调整大小等)。如果不加限制,浏览器会频繁触发回调函数,导致性能问题,甚至页面卡顿。 防抖(Debounce) 和 节流(Throttle) 是两种优化方案,可以有效控制事件触发的频率,提高应用的性能和用户体验。 本篇文章将详细解析 防抖和节流的原理、适用场景及代码实现,帮助你更好地优化前端应用。 1. 什么是防抖(Debounce)? 📝 概念 防抖是一种在事件触发后延迟执行的技术,如果在延迟期间事件被再次触发,计时器会重置,重新计算延迟时间。 核心思想:短时间内多次触发,只执行最后一次。 📌 适用场景 * 搜索框输入(防止用户每次输入都发送请求) * 窗口调整大小(resize)(防止短时间内多次触发计算) * 表单输入验证(用户停止输入后再进行验证) ✅ 代码实现 functiondebounce(fn,

用 龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!

用 龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!

🚀 用龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香! 一句话总结:选对模型 + 写好提示词,让“龙虾”帮你从零生成可运行的 C 语言成绩管理系统 + 全栈博客前端项目,连实训报告都自动生成! 大家好,我是 VON。最近“AI 编程助手”火出圈,但很多人还在手动敲代码、调 Bug、写报告……其实,只要用对工具,一个指令就能完成整套高校实训作业! 今天我就带大家实测:如何用 AI 智能体(俗称“龙虾”) 快速搞定两类典型课程设计—— ✅ C 语言学生成绩管理系统 ✅ React 全栈个人博客系统 全程无需打开 IDE,甚至不用看一行代码!👇 🔧 第一步:选对模型,效率翻倍! 智能体的输出质量,70%