解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型

很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104

按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true,

完成后再重启vscode,claude就有了:

Read more

机器人必备知识——关于李群、李代数的理解

机器人必备知识——关于李群、李代数的理解

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 目录 前言 一、问题提出 1.1 位姿的表述 1.2 矩阵求导的问题 二、李群 2.1 群数学定义 2.2 李群和李代数的数学定义 2.3 欧拉公式 三、李群在机器人中的应用 3.1 SO(3)特殊正交群 3.2 SE(3)特殊欧氏群 总结 前言 在对机器人技术的学习过程中,我们经常会听到“旋量”、“四元数”、“李群”、“李代数”等一些听起来高大上的词汇。首先得认识到,这些词汇都是实用的而非像“神经元”、“类脑”

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

Qwen1.5-0.5B-Chat教育助手开发:轻量模型集成实战教程

Qwen1.5-0.5B-Chat教育助手开发:轻量模型集成实战教程 1. 引言:为什么选择这个“小”模型? 如果你正在寻找一个能快速集成到教育应用里的AI对话模型,但又担心模型太大、部署太麻烦、成本太高,那么你来对地方了。 今天我们要聊的,是阿里通义千问开源家族里最“苗条”的成员——Qwen1.5-0.5B-Chat。别看它只有5亿参数,在动辄百亿、千亿参数的大模型时代显得有点“小巧”,但在特定的教育辅助场景下,它却是一个“小而美”的绝佳选择。 想象一下这些场景: * 你想给在线学习平台加一个智能答疑助手,回答学生关于课程内容的简单问题。 * 你需要一个能批改选择题、填空题,并给出简单解析的自动化工具。 * 你的应用运行在普通的云服务器甚至本地电脑上,没有强大的GPU支持。 在这些情况下,动辄需要几十GB显存的大模型就显得“杀鸡用牛刀”了。而Qwen1.5-0.5B-Chat就像一个专为轻量级任务定制的“瑞士军刀”,部署简单、响应迅速、资源占用极低。 本教程将手把手带你,基于ModelScope(

服务器上 VsCode 的 Github Copilot:加载超时?优化与修复方案

服务器上 VS Code 的 GitHub Copilot 加载超时问题:优化与修复方案 当在服务器环境使用 VS Code 的 GitHub Copilot 时,加载超时通常由网络配置或资源限制引起。以下是结构化解决方案: 1. 网络层优化 配置代理(若需跨墙) 在 VS Code 的 settings.json 添加: "http.proxy": "http://your-proxy-ip:port", "https.proxy": "http://your-proxy-ip:port", "http.proxyStrictSSL"