copilot在wsl中无法工作

copilot在wsl中无法工作

copilot 在 wsl 中无法工作——vscode remote develop 代理设置

通过本文,你可以了解:

  1. 如何解决 copilot 在 wsl 中无法使用的问题
  2. wsl和宿主机之间的网络通信
  3. vscode 的 remote develop 代理设置

问题表现

如果你有以下问题之一:

image-20251023112557124
  1. 对话没有输出
image-20251023112627748
  1. 显示 fetch failed
image-20251023112927595
  1. 模型名称不显示
image-20251023113136431

问题分析

查看 copilot chat 的 output 显示:

image-20251023115601077
image-20251023113051902

如果显示 proxies 相关问题,可以确定是 WSL 中运行的 vscode 调用了宿主机的 proxy 设置的问题。

image-20251023113614436

**这个选项似乎是默认开启的,会在 vscode 远程连接 wsl 开发中继承宿主机的 proxy 本地设置。**问题就出在这里,如果你使用的是宿主机本机运行的代理程序,那么proxy的ip就会设置为 127.0.0.1,但是在 wsl 中想要访问宿主机的代理端口,ip并不是 127.0.0.1(这会访问到 wsl 自己),而是需要通过如下方式查询宿主机 ip,然后访问到宿主机上的代理端口:

hostip=$(ip route show |grep -i default |awk'{ print $3}')echo$hostip

我的输出:

172.25.48.1 

因此 wsl 中要通过 172.25.48.1 ip 来访问宿主机上的端口。

WSL 2 / VS Code RemoteWindows Host (宿主机)Listens on Port XListens on Port XReturns 172.25.48.1Default Proxy: 127.0.0.1X Connection Refused (Self)✅ Correct Proxy: 172.25.48.1:Port XTraffic ForwardedWSL ApplicationLoopback: 127.0.0.1Query: ip route show | awk '{ print $3}'Proxy AppHost IP: 172.25.48.1Loopback: 127.0.0.1

问题解决

  1. 如果可以通过网络直连,直接关闭 http: Use Local Proxy Configuration.
  2. 如果依然需要设置代理,完成1后,修改如下设置:
image-20251023122228413
你可能见过这个方案:github - Copilot is not working is WSL remote connection? - Stack Overflow

这个方案确实可以成功,但是带来的副作用是 copilot 无法修改 WSL 中的文件,agent模式将称为摆设,因为你设置 copilot 完全工作在宿主机上(即设置的 "GitHub.copilot": [ "ui" ]

WSL和宿主机网络互访

上面已经说明了如何在WSL命令行中访问宿主机程序,那么我们可以将之应用到代理设置上,以下脚本解决了一个问题——在 wsl 命令行中如何利用宿主机代理软件?

#!/bin/shhostip=$(ip route show |grep -i default |awk'{ print $3}')wslip=$(hostname -I |awk'{print $1}')port=7890PROXY_HTTP="http://${hostip}:${port}"PROXY_SOCKS5="socks5://${hostip}:${port}"set_proxy(){exporthttp_proxy="${PROXY_HTTP}"exportHTTP_PROXY="${PROXY_HTTP}"exporthttps_proxy="${PROXY_HTTP}"exportHTTPS_proxy="${PROXY_HTTP}"exportALL_PROXY="${PROXY_SOCKS5}"exportall_proxy=${PROXY_SOCKS5}git config --global http.https://github.com.proxy ${PROXY_HTTP}git config --global https.https://github.com.proxy ${PROXY_HTTP}echo"Proxy has been opened."}unset_proxy(){unset http_proxy unset HTTP_PROXY unset https_proxy unset HTTPS_PROXY unset ALL_PROXY unset all_proxy git config --global --unset http.https://github.com.proxy git config --global --unset https.https://github.com.proxy echo"Proxy has been closed."}test_setting(){echo"Host IP:"${hostip}echo"WSL IP:"${wslip}echo"Try to connect to Google..."resp=$(curl -I -s --connect-timeout 5 -m 5 -w "%{http_code}" -o /dev/null www.google.com)if[${resp}=200];thenecho"Proxy setup succeeded!"elseecho"Proxy setup failed!"fi}if["$1"="set"]then set_proxy elif["$1"="unset"]then unset_proxy elif["$1"="test"]then test_setting elseecho"Unsupported arguments."fi

这个脚本自动获取宿主机的 ip,并利用宿主机上的本地代理软件来代理wsl中的网络请求,可以通过参数控制行为:

source proxy.sh set# 开启代理,设置代理变量source proxy.sh set# 用 google.com 测试代理是否成功source proxy.sh unset# 关闭代理,清楚代理变量设置

参考

WSL2与Windows间的网络互访 - 简书

WSL2 访问 Clash 网络代理 | 极客开发

Read more

Ollama+Llama-3.2-3B实战:零代码搭建文本生成服务

Ollama+Llama-3.2-3B实战:零代码搭建文本生成服务 1. 为什么选Llama-3.2-3B?轻量、多语、开箱即用 你是否试过部署一个大模型,结果卡在CUDA版本不匹配、PyTorch编译失败、依赖冲突报错的第7个环节? 你是否想快速验证一个文案创意、写一封工作邮件、生成产品简介,却不想打开网页、登录账号、等加载、再复制粘贴? 如果你点头了,那Llama-3.2-3B + Ollama 就是为你准备的——它不是“又要折腾环境”的新负担,而是“点一下就能说话”的文本生成服务。 这不是概念演示,也不是实验室玩具。Llama-3.2-3B由Meta发布,是真正经过指令微调(SFT)和人类反馈强化学习(RLHF)优化的30亿参数模型。它不追求参数堆砌,而专注实际可用性:支持中、英、法、西、德等10+语言;对中文理解扎实,

快速解决vscode远程连接时copilot提示脱机状态无法使用的问题

本文在以下博客的基础上进行进一步的补充。VsCode远程连接服务器后安装Github Copilot无法使用_vscode copilot chat用不了-ZEEKLOG博客 在vscode中,通过ssh或docker等连接远程服务器时,在远程窗口中可能会无法使用copilot,提示处于脱机状态。 只需要在设置(setting)中搜索"extension kind",点击settings.json; 进入settings.json后,找到"remote.extensionKind",加入如下"Github."开头的4行代码即可。 重启远程连接后,即可畅通使用copilot的ask和agent模式,也可以进行代码补全。

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程 目标:本文讲详细介绍多模态大模型使用llama-factory进行多模态模型微调(sft)的全部流程,以及微调后合并和工业落地部署方案。具体包括: 1. 环境安装部署 2. 数据集准备 3. 启动微调 4. 模型合并 5. 模型部署和请求方式(vllm部署) 示例模型: qwen2.5-vl-instruct qwen3-vl-instruct 环境安装 llama-factory环境准备 方式1 git直接下载 git clone --depth https://github.com/hiyouga/LLaMA-Factory.git 方式2 下载项目压缩包再解压 python环境安装 1. python虚拟环境创建 * conda create --name llama_env python=3.12 (默认已安装好anaconda或者minianaconda) * conda

文心一言是什么?这款百度推出的AI助手都有什么功能?

文心一言是什么?这款百度推出的AI助手都有什么功能?

文章首发于:AI产品库AIProductHub ;作者:陌路遥 1 文心一言是什么? 文心一言(英文名:ERNIE Bot)是百度全新一代知识增强大语言模型,于2023年3月16日正式发布,同年8月31日向全社会全面开放。作为文心大模型家族的新成员,它能够与人对话互动、回答问题、协助创作,高效便捷地帮助人们获取信息、知识和灵感。 文心一言的技术基础源于百度在人工智能领域20多年的深耕。它从数万亿数据和数千亿知识中融合学习,得到预训练大模型,在此基础上采用有监督精调、人类反馈强化学习、提示等技术,具备知识增强、检索增强和对话增强三大技术优势。在人工智能"芯片-框架-模型-应用"四层结构中,百度是全球为数不多进行全栈布局的公司,而文心一言正处于模型层这一核心位置。 截至2024年11月,文心一言用户规模已达到4.3亿,文心大模型日均调用量超过15亿次,较2023年增长超30倍。这一数据充分证明了其在市场上的广泛接受度和影响力。 2 文心一言的主要功能和特点 2.1 核心功能概述 文心一言具备五大核心能力:文学创作、商业文案创作、数理逻辑推算、中文理解、