vscode copilot在win10 WSL2环境无法使用的问题

vscode copilot在win10 WSL2环境无法使用的问题

问题描述

问话会进入chat初始化过程

在这里插入图片描述


等了一段时间就说 retry connection

在这里插入图片描述

重新reload window会报:Chat took too long to get ready. Please ensure you are signed in to GitHub and that the extension GitHub.copilot-chat is installed and enabled.

在这里插入图片描述

解决办法

回退Copilot版本

参考这位老哥解决方案 :https://github.com/orgs/community/discussions/147219

在这里插入图片描述

将Copilot回退回 v1.252.0版本

PS:Vscode插件回退方法
依次点击插件->Copilot->Uninstall旁边下拉->Install Specific Version

在这里插入图片描述


点击重装即可,记得关闭自动更新(Auto Update)

在这里插入图片描述

网络问题

在找攻略的时候,可能瞎改了一通网络代理,导致回退了版本也不行

查看网络连接问题

可以在Vscode控制台->output->搜Copilot,这是正常的打印日志

如果显示类似 127.0.0.1:7890 或 127.0.0.1:7987 连接不通过,那就是网络问题

在这里插入图片描述
关闭网络代理

第一步:进入Setting,切换到Remote[WSL:Ubuntu],搜索proxy,去掉Http: Proxy

在这里插入图片描述


第二步:关闭Http: Use Local Proxy Configuration

在这里插入图片描述


在这里插入图片描述

第三步:Reload window后,看到控制台打印如下信息,就说明成功了

在这里插入图片描述

Read more

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局 摘要 本文基于 TrendRadar 项目,详细拆解如何通过 Docker 本地部署一套个人专属的 AI 热点情报系统。涵盖从环境准备、Docker 镜像拉取、局域网访问配置、飞书推送修复到 Cherry Studio MCP 服务对接的全流程。通过 Nvidia 免费模型 API,实现零成本的深度热点分析与趋势追踪。 关键词: TrendRadar, Docker部署, AI热点分析, MCP服务, Cherry Studio 1. 背景与需求:为什么我们需要 TrendRadar? 在这个大数据算法横行的时代,我们每天被头条、抖音等平台“投喂”大量信息,不仅容易陷入信息茧房,还浪费了大量时间筛选有效资讯。 我的核心需求很简单: 1. 拒绝算法绑架:需要一个个人定制化的新闻推送服务。 2.

AIGC首帧图尾帧图生成视频案例教程

AIGC首帧图尾帧图生成视频案例教程

目录 * 引言 * 一、按照首帧图、尾帧图生成视频的步骤 * 二、案例教程 * 1、合成首帧图和尾帧图。 * 2、首尾帧+提示词生成视频。 * 3、配音剪辑视频 * 4、两段视频尾首相连 * 三、总结 引言 小马先前有在《AIGC视频生成之Deepseek、百度妙笔组合实战小案例》这篇文章中简述了如何无中生有,凭空生成一段想要的视频。然而,在之前相关的教程中小马也有介绍过,此类文生视频的形式一般适合开放形的,用户自己没有什么具体的灵感,对视频成果没有什么特定期望要求的。 但是通常我们生成视频会带有明确的指向性和内容要求,比如用户本身就是一位名导,肯定有自己的影视效果要求;或者用户想根据剧本生成视频,那就内容指向比较明确了。这种情况该如何做呢?小马下面就开始细细道来,看完也许你就可以自导自演一部短剧了。 一、按照首帧图、尾帧图生成视频的步骤 话不多说,我们先来看一段AI成果视频。 AIGC江湖再见,十年出剑是非空(成品) 本段视频全部由AI生成。接下来简单说一下整体步骤。 1、准备场景背景图,人物图等,

AI学习笔记:LM studio大模型加载参数说明

AI学习笔记:LM studio大模型加载参数说明

LM Studio加载大模型时参数设置页面的常见参数及设置方法如下: 上下文长度(Context Length) * 意义:表示模型可以处理的最大上下文长度,即模型一次能够考虑的输入文本的最大token数量。较大的上下文长度能让模型更好地理解长文本的语义和逻辑关系,提高对复杂问题的回答准确性,但会增加内存占用和计算量。 * 设置方法:若进行简单问答,可设置为4096;若是处理小红书文案等较长文本,可设为10000以上;写作文、小说等则可尝试设置为100000左右,不过也要根据模型和硬件性能调整,硬件资源有限时,过大的上下文长度可能导致模型运行缓慢甚至无法运行。 GPU卸载(GPU Offload) * 意义:指模型的多少层将被卸载到GPU上进行计算。增加该值可让更多模型计算任务利用GPU的强大算力,提高运行速度和效率,但会占用更多GPU内存。 * 设置方法:一般建议先设置为可使用GPU显存的一半,然后根据模型运行情况和GPU显存占用状况调整。如使用1060显卡可设为4,2060显卡设为8,3060显卡设为16,4060显卡设为32。 CPU线程池大小(CPU Thre

3分钟快速上手:llama-cpp-python完整安装配置指南

3分钟快速上手:llama-cpp-python完整安装配置指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 想要在本地快速运行大语言模型却苦于复杂的安装配置?llama-cpp-python是专为新手打造的Python集成库,让您轻松访问强大的llama.cpp推理引擎。这份完整的技术工具安装配置指南将带您从零开始,快速上手本地AI开发!🚀 📦 基础安装:一步到位 llama-cpp-python的安装过程极其简单,只需一行命令: pip install llama-cpp-python 这个命令会自动从源码构建llama.cpp,并将其与Python包一起安装。如果遇到构建问题,可以添加--verbose参数查看详细构建日志。 ⚡ 硬件加速配置 想要获得最佳性能?根据您的硬件选择合适的加速后端: CUDA加速(NVIDIA显卡) CMAKE_ARGS="-DGGML_CUDA=