VSCode在WSL环境下无法使用Github Copilot(网络问题)

概要

本文记录了一个案例:VSCode 在 WSL 环境下无法使用 Github Copilot,但是原生 Windows 下使用没问题。

问题表现

使用 VsCode 连接到 WSL 后,Copilot 无法进行自动或手动补全,在聊天窗口输入信息后始终显示“正在准备 Copilot”。

使用 Ctrl+` 打开面板,点击“输出”面板,右上角选择"Github Copilot Chat",可以看到错误日志如下:

2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Initializing Git extension service. 2025-09-03 15:54:27.648 [info] Can't use the Electron fetcher in this environment. 2025-09-03 15:54:27.648 [info] Using the Node fetch fetcher. 2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Successfully activated the vscode.git extension. 2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Enablement state of the vscode.git extension: true. 2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Successfully registered Git commit message provider. 2025-09-03 15:54:28.580 [info] Logged in as focksor 2025-09-03 15:54:31.233 [info] Got Copilot token for focksor 2025-09-03 15:54:31.245 [info] activationBlocker from 'languageModelAccess' took for 3289ms 2025-09-03 15:54:31.396 [error] TypeError: fetch failed at node:internal/deps/undici/undici:13510:13 at processTicksAndRejections (node:internal/process/task_queues:105:5) at Lk._fetch (/home/focksor/.vscode-server/extensions/github.copilot-chat-0.30.3/dist/extension.js:1170:29745) at Ov._fetchModels (/home/focksor/.vscode-server/extensions/github.copilot-chat-0.30.3/dist/extension.js:2539:5015) Error: read ECONNRESET at TLSWr

Read more

解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型 很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true, 完成后再重启vscode,claude就有了:

By Ne0inhk

Whisper-WebUI语音转文字实战指南:从零开始制作专业字幕

Whisper-WebUI语音转文字实战指南:从零开始制作专业字幕 【免费下载链接】Whisper-WebUI 项目地址: https://gitcode.com/gh_mirrors/wh/Whisper-WebUI 你是不是经常遇到这样的困扰:录制的视频需要添加字幕,但手动打字太耗时?或者想为海外视频制作中文翻译字幕,却苦于找不到合适的工具?今天我要向你推荐一个神器——Whisper-WebUI,它能帮你把语音变成文字,让字幕制作变得轻松简单! 🤔 第一步:如何快速搭建语音转文字环境? 问题场景:想用AI工具但怕配置太复杂 解决方案:Docker一键部署(5分钟搞定) 别被"语音识别"、"AI模型"这些词吓到,其实安装比你想的简单得多。就像下载手机APP一样,跟着我做: 1. 开始使用: 打开浏览器访问 http://localhost:7860,就这么简单! 启动服务: cd Whisper-WebUI &

By Ne0inhk

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式 基于 OpenAI Whisper Large v3 构建的多语言语音识别 Web 服务,支持 99 种语言自动检测,可同时运行转录、翻译和摘要三种处理模式。 1. 项目概述与核心价值 Whisper-large-v3 是 OpenAI 推出的强大语音识别模型,拥有 15 亿参数,支持 99 种语言的自动检测与转录。本项目基于该模型二次开发,构建了一个支持多任务并行的 Web 服务,可以在同一服务中同时处理语音转录、文本翻译和内容摘要三种任务。 传统语音识别服务的痛点: * 需要部署多个服务处理不同任务 * 数据在不同系统间流转效率低 * 维护成本高,资源利用率低 本方案的创新价值: * 单服务集成三大核心功能 * 减少数据传输开销,提升处理效率 * 统一接口简化开发集成 * 最大化利用 GPU 资源 通过这个方案,你可以用一段音频输入,

By Ne0inhk

5分钟部署Z-Image-Turbo,AI绘画极速上手实战

5分钟部署Z-Image-Turbo,AI绘画极速上手实战 你有没有试过:输入一句“秋日银杏大道上的咖啡馆橱窗”,等了七八秒,结果生成的图里银杏叶子泛着塑料感,咖啡馆玻璃反光像马赛克?又或者,想给团队快速出几版海报方案,却卡在模型加载、依赖报错、显存溢出的死循环里? Z-Image-Turbo不是又一个“参数更多、体积更大”的AI绘画模型。它是一次精准的工程减法——去掉冗余步骤,保留核心能力,把文生图从“能画”真正拉回到“马上就能用”的节奏里。 它不挑硬件:RTX 3090、4080、甚至A10G这类16GB显存的消费级或入门级专业卡,开箱即跑; 它不绕弯路:8步完成高质量图像生成,端到端延迟压进1秒内; 它不玩翻译游戏:中文提示词直通语义空间,“穿青花瓷纹旗袍的少女坐在苏州园林月洞门下”——字字落地,不丢细节; 它不设门槛:没有conda环境冲突,没有模型手动下载,没有CUDA版本焦虑。 本文带你跳过所有理论铺垫和配置踩坑,用最短路径完成本地部署、界面访问、首图生成、效果调优。全程无需写一行新代码,不联网下载权重,

By Ne0inhk