解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型

很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104

按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true,

完成后再重启vscode,claude就有了:

Read more

从FP16到FP8:我是如何让Stable Diffusion 3.5提速40%而不丢画质的

从FP16到FP8:我是如何让Stable Diffusion 3.5提速40%而不丢画质的

两年前我第一次接触Stable Diffusion时,生成一张512x512的图片需要等待整整12秒。今天,我的优化版本能在1.8秒内完成同样任务,而且画质更优——这中间的差距,就是我想和你分享的全部。 这篇文章不会有晦涩的术语堆砌,只有我亲自踩坑、验证有效的实战经验。 01 FP8不是数字游戏,而是算力革命的起点 去年看到NVIDIA发布H100支持FP8格式时,我第一反应是:“这不过是又一次精度压缩罢了。”直到亲手将Stable Diffusion 2.1迁移到FP8后,我才意识到自己错得多离谱。 FP8与FP16的核心差异不是数字大小,而是内存带宽的解放。 当模型权重从16位降到8位,显存占用直接减半。这意味着什么?意味着批量生成时,你可以同时处理更多图片;意味着那些因为显存不足而无法加载的LORA模型,现在有了运行空间。 但这里有个陷阱:不是所有模型层都适合FP8。 在转换过程中,我发现注意力机制层对精度极其敏感。粗暴地将整个模型转为FP8,会导致生成的人物面部扭曲、细节模糊。正确的做法是分层处理: python # 错误做法:整个模型转换 model.to

【AIGC】如何获取ChatGPT外部GPTs应用的提示词Prompt指令和知识库文件

【AIGC】如何获取ChatGPT外部GPTs应用的提示词Prompt指令和知识库文件

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |GPTs应用实例 文章目录 * 💯前言 * 💯获取GPTs的提示词Prompt指令 * 💯获取GPTs的知识库文件 * 💯小结 * 关于GPTs指令如何在ChatGPT上使用,请看这篇文章: 【AIGC】如何在ChatGPT中制作个性化GPTs应用详解     https://blog.ZEEKLOG.net/2201_75539691?type=blog * 关于如何使用国内AI工具复现类似GPTs效果,请看这篇文章: 【AIGC】国内AI工具复现GPTs效果详解     https://blog.ZEEKLOG.net/2201_75539691?type=blog 💯前言 随着 ChatGPT 和其他 AI 应用的不断发展,越来越多的外部 GPTs 被集成进来,以增强其功能和适应多样化的用户需求。这些外部 GPTs 并不仅仅是通用的 聊天助手,而是专为特定场景、

Fooocus深度攻略:零基础玩转AI绘画的终极秘籍

Fooocus深度攻略:零基础玩转AI绘画的终极秘籍 【免费下载链接】FooocusFocus on prompting and generating 项目地址: https://gitcode.com/GitHub_Trending/fo/Fooocus 还在为复杂的AI绘画工具望而却步吗?Fooocus作为一款基于Stable Diffusion XL的开源AI绘画软件,通过智能化的提示词处理和丰富的艺术风格预设,让每个人都能轻松创作出专业级视觉作品。这款专注于提示词优化和风格选择的AI图像生成工具,将复杂的技术流程转化为简单直观的创作体验。 核心功能揭秘:三大技术亮点解析 智能化提示词增强引擎 Fooocus内置了先进的提示词自动优化系统,能够智能识别和丰富用户输入的描述内容。无论你是专业设计师还是完全的新手,只需简单的文字描述就能获得理想的生成效果。 实战操作示例: * 输入:"森林中的魔法小屋" * 选择:"奇幻风格"模板 * 点击生成按钮 系统会自动完善提示词结构,优化描述逻辑,确保生成图像的质量和创意表达。 多样化艺术风格库 项目内置了超过20

Stable Diffusion显存优化完全解决方案:彻底告别内存不足错误

Stable Diffusion显存优化完全解决方案:彻底告别内存不足错误 【免费下载链接】sd-webui-memory-releaseAn Extension for Automatic1111 Webui that releases the memory each generation 项目地址: https://gitcode.com/gh_mirrors/sd/sd-webui-memory-release 在AI绘图创作过程中,Stable Diffusion显存优化是每个用户都必须面对的关键问题。当你的显卡内存不足时,不仅会中断创作流程,还可能导致数据丢失。本文将为你提供一套完整的AI绘图内存管理方案,帮助你在低配设备上也能流畅运行Stable Diffusion。 🎯 问题根源:为什么显存总是不够用? 显存消耗的主要来源: * 模型权重残留:生成完成后,模型数据仍占用显存空间 * 缓存累积效应:CUDA缓存随着操作次数增加而不断堆积 * 并发处理压力:批量生成时内存需求呈几何级数增长 快速诊断清单: ✅ 单张图片生成后显存占用是否回落? ✅ 连续操