vscode copilot在win10 WSL2环境无法使用的问题

vscode copilot在win10 WSL2环境无法使用的问题

问题描述

问话会进入chat初始化过程

在这里插入图片描述


等了一段时间就说 retry connection

在这里插入图片描述

重新reload window会报:Chat took too long to get ready. Please ensure you are signed in to GitHub and that the extension GitHub.copilot-chat is installed and enabled.

在这里插入图片描述

解决办法

回退Copilot版本

参考这位老哥解决方案 :https://github.com/orgs/community/discussions/147219

在这里插入图片描述

将Copilot回退回 v1.252.0版本

PS:Vscode插件回退方法
依次点击插件->Copilot->Uninstall旁边下拉->Install Specific Version

在这里插入图片描述


点击重装即可,记得关闭自动更新(Auto Update)

在这里插入图片描述

网络问题

在找攻略的时候,可能瞎改了一通网络代理,导致回退了版本也不行

查看网络连接问题

可以在Vscode控制台->output->搜Copilot,这是正常的打印日志

如果显示类似 127.0.0.1:7890 或 127.0.0.1:7987 连接不通过,那就是网络问题

在这里插入图片描述
关闭网络代理

第一步:进入Setting,切换到Remote[WSL:Ubuntu],搜索proxy,去掉Http: Proxy

在这里插入图片描述


第二步:关闭Http: Use Local Proxy Configuration

在这里插入图片描述


在这里插入图片描述

第三步:Reload window后,看到控制台打印如下信息,就说明成功了

在这里插入图片描述

Read more

如何在VS Code中安装GitHub Copilot进行AI编程

如何在VS Code中安装GitHub Copilot进行AI编程

本文教您轻松在VS Code中玩转GitHub Copilot:从安装认证到实战网页开发,5分钟解锁AI编程神器,还能自由切换模型、实时调试代码! 在Visual Studio Code中搭建GitHub Copilot编程环境需要经过几个关键步骤,以下是详细指南: 环境准备阶段 1. 安装最新版VS Code(当前版本≥1.85)官网下载地址:https://code.visualstudio.com/ 2. 拥有有效的GitHub账户(建议启用双重验证) 注册地址:https://github.com/ 3. 稳定的网络连接(Copilot需实时云端交互) 安装流程 1、安装VS Code后,选择”Use All features with Copilot for free”。如果已经安装VS Code,可以打开VS Code扩展市场(

文心一言 4.5 开源深度剖析:性能中文双项碾压,开源引擎驱动行业变革,解锁大模型新范式

文心一言 4.5 开源深度剖析:性能中文双项碾压,开源引擎驱动行业变革,解锁大模型新范式

引言 不知道大家关注到没?文心大模型 ERNIE 4.5 已开源并首发于 GitCode 平台!不同于以往的开源模型,百度这次一口气开源了 10 款模型,覆盖基础、对话、多模态、思考等多个方向,甚至将核心训练框架、分布式策略完全开放。在基准测试中,文心开源即刷榜,性能大幅超越 Qwen3 、 DeepSeek-V3 等模型;下面跟随博主一起从模型架构特性、技术分析、部署难度等来对文心模型全面解析一下! 文章目录 * 引言 * 一、文心大模型 ERNIE 4.5 开源简介 * 1.1 开源模型版本介绍 * 1.2 基准测试表现 * 1.3 全面的工具生态链 * 二、文心大模型 ERNIE 4.5技术分析

写文章用哪个AI?2025年AI写作工具终极指南

写文章用哪个AI?2025年AI写作工具终极指南

写文章用哪个AI?2025年AI写作工具终极指南 前言:当你盯着空白文档时,AI正在盯着你 相信每个写作者都经历过这样的时刻:deadline如达摩克利斯之剑悬在头顶,Word文档里却只有一个闪烁的光标在嘲笑你的才华枯竭。这时候,你可能会想:“要是有个AI能帮我写就好了。” 好消息是,2025年的今天,AI写作工具已经从"能用"进化到"好用",甚至"离不开"的程度。坏消息是,选择太多也是一种甜蜜的负担。 一、主流AI写作工具横向对比 1. Claude(Anthropic)—— 学术派的温柔巨人 核心优势: * 长文本处理能力:支持20万+tokens的上下文,能一次性处理约15万字的内容 * 逻辑连贯性:在长篇文章写作中表现出色,结构清晰,论证严密 * 安全性高:内容审核严格,适合正式场合使用 适用场景: * 学术论文、研究报告 * 长篇商业文档

使用 LLaMA-Factory 微调 Qwen2.5 模型,并转换为 GGUF 格式部署

在开源大模型领域,Qwen 系列凭借强大的中文能力和友好的协议受到广泛欢迎。然而,直接使用基座模型往往无法满足特定业务场景的需求,需要通过微调来注入领域知识。微调后的模型如何高效部署?GGUF 格式是目前 llama.cpp 等推理后端广泛支持的格式,具有跨平台、内存映射等优点。本文将完整记录使用 LLaMA-Factory 微调 Qwen2.5-7B-Instruct 模型,并通过 llama.cpp 将微调后的模型转换为 GGUF 格式的全过程,并分享在转换过程中遇到的经典错误及其解决方案。 1.环境准备 我们在一台 Linux 服务器上操作,安装了 Conda 用于环境隔离。需要准备以下组件: Python 3.10 LLaMA-Factory(用于微调) llama.cpp(用于格式转换) transformers、peft、accelerate 等依赖库 1.1