解决 VSCode Remote-SSH/Copilot 在远程 Linux 上因 127.0.0.1:7890 代理报错的问题(完整排障记录)

适用场景:你在 本机 VSCode 需要代理(例如使用claude模型等),但通过 Remote-SSH 连接的远程 Linux 服务器并没有本地代理。VSCode Server/Copilot 在远端仍然尝试走 127.0.0.1:7890,导致联网失败、Copilot 激活失败。

现象与日志

远端 ~/.vscode-server 的日志出现:

Error: Failed to establish a socket connection to proxies: PROXY 127.0.0.1:7890 GitHub Copilot could not connect to server. Extension activation failed [LanguageModelAccess] LanguageModel/Embeddings are not available without auth token 

并能看到:

Can't use the Electron fetcher in this environment. Using the Node fetcher. 

这说明 VSCode Server(Node 侧)在 远程服务器 上试图走 127.0.0.1:7890 的代理;但这个 127.0.0.1 指的是 远程机器的本地地址,不是你笔记本/台式机的本地地址,自然连不上。


TL;DR(一分钟快修)

你需要 区分本机与远端的代理配置

  • 本机 VSCode(GUI)继续走代理http.proxy = http://127.0.0.1:7890
  • 远端 VSCode Server 不走代理:在「远端设置」里把 http.proxy 设为空字符串

步骤:

  1. 连接到远程后,打开命令面板 → Preferences: Open Remote Settings (JSON),写入:
{ "http.proxy": "", "http.proxyStrictSSL": false } 

2)(可选)在远端 shell 里清理代理环境变量:

unset http_proxy https_proxy all_proxy 
  1. 重启远端 VSCode Server(断开重连即可;如需彻底重置可执行 rm -rf ~/.vscode-server<

Read more

前端预览doc文件,收藏这篇就够了

市面上看到很多关于预览的 但很多都不支持doc 可能是版本太老了 被遗弃了吧 直接步入正题 解决方案: 1.让后端进行转 返回给你docx格式 进行预览 2.使用 iframe 直接进行预览 主要说一下注意事项: <iframe :src="previewUrl" frameborder="0"></iframe> 1.docUrl 必须是一个线上联网可打开的地址 拒绝本地 局域网 对地址进行处理 const docUrl = "你doc的地址"; this.previewUrl = `https://view.officeapps.live.com/op/embed.aspx?

开箱即用!gpt-oss-WEBUI镜像让AI部署变得简单

开箱即用!gpt-oss-WEBUI镜像让AI部署变得简单 你是否曾为部署一个大模型反复折腾环境、编译依赖、调试CUDA版本,最后卡在“ImportError: cannot import name ‘xxx’”上整整一个下午?是否试过下载几十GB的模型权重,却在加载时因显存不足而崩溃?是否渴望真正“点一下就跑起来”,而不是花三天时间读文档、查报错、问群友? 今天要介绍的这个镜像,就是为终结这些痛苦而生的——gpt-oss-20b-WEBUI。它不是又一个需要你手动配置的项目,而是一个封装完整、开箱即用、连网页界面都预装好的AI推理环境。不需要安装Ollama,不用拉取模型,不需配置Docker网络,更不必纠结vLLM和Transformers该选哪个后端。你只需要一次点击,等待两分钟,然后直接在浏览器里和OpenAI最新开源的gpt-oss模型对话。 这是一次真正意义上的“零门槛本地大模型体验”。 1. 为什么说这个镜像是“开箱即用”的? 1.1 它不是代码仓库,而是一个可运行的完整系统 很多教程教你怎么从GitHub clone代码、怎么pip install、怎么改

什么是前端?【零基础友好 · 通俗易懂版】

什么是前端?【零基础友好 · 通俗易懂版】

✅ 纯白话讲解,无专业黑话,零基础秒懂,不堆砌技术术语,看完就知道「前端到底是什么、做什么、有什么用」 ✅ 最新技术适配:贴合当前前端主流生态(React 18/Vue 3/Next.js 14/Tailwind CSS 3/AI 辅助开发),覆盖跨端、工程化、AI 融合等前沿方向 ✅ 条理清晰:从定义→核心价值→技术栈→工作内容→发展趋势,层层递进,逻辑连贯,适合零基础小白快速建立认知 ✅ 核心目标:帮你彻底搞懂「前端的本质」,明白前端在互联网产品中的角色,以及学前端的意义和方向 一、前端的核心定义:用户直接接触的「数字界面」 ✔️ 1. 白话版定义(秒懂,不用记专业术语) 前端(Front-end)

Gemma-3-12B-IT WebUI效果验证:多语言混合提问(中英混杂)准确响应

Gemma-3-12B-IT WebUI效果验证:多语言混合提问(中英混杂)准确响应 1. 引言:当AI遇上“中英夹杂”的日常 你有没有遇到过这样的情况?跟朋友聊天时,会不自觉地蹦出几个英文单词,比如“这个idea不错”、“下午有个meeting”。在工作中,写代码注释、查技术文档,更是中英文混用。这种“中英夹杂”的表达,已经成为很多人的日常习惯。 那么问题来了:当这样的混合语言输入给AI时,它能准确理解并给出靠谱的回答吗?今天,我们就来实测一下Gemma-3-12B-IT这个模型在WebUI界面下的真实表现。 Gemma-3-12B-IT是Google最新推出的开源大语言模型,120亿参数的规模让它既保持了不错的智能水平,又相对容易部署。更重要的是,它是专门针对人类指令进行优化的“指令微调版”,理论上应该更擅长理解我们日常的说话方式。 但理论归理论,实际效果如何?特别是面对我们这种“不按套路出牌”的中英混合提问,它会不会一脸懵?接下来,我就带大家走进真实的测试场景,看看这个模型到底行不行。 2. 测试环境与准备 2.1 测试平台简介