VsCode远程Copilot无法使用Claude Agent问题

最近我突然发现vscode Copilot中Claude模型突然没了,我刚充的钱啊!没有Claude我还用啥Copilot

很多小伙伴知道要开代理,开完代理后确实Claude会出来,本地使用是没有任何问题的,但是如果使用远程ssh的话,会出现访问异常,连接不上的情况。这时候很多小伙伴就在网上寻找方法,在vscode setting中添加这么一段代码。可以看看这篇博客

"http.proxy": "http://127.0.0.1:1082", "remote.extensionKind": { "GitHub.copilot": [ "ui" ], "GitHub.copilot-chat": [ "ui" ], "pub.name": [ "ui" ] }

代理设置在本地回还地址,然后强制copilot也在本地上运行,这时候你会发现Claude模型出来了,ask也可以正常询问,但是Agent模式无法正常编辑,会有一段这么个提醒:

copilotAllow edits to sensitive files?The model wants to edit files outside of your workspace

这是提醒你工作区错误,但是明明发现我的工作区没有错。这其中的问题就出在了"GitHub.copilot": ["ui" ],
    "GitHub.copilot-chat": ["ui"],这两行代码会强制你的copilot在本地运行,然后你的远程路径在本地是无法识别的,所以就告诉你Workspace异常。

那么如何解决呢?

首先我们的代理地址(我这里的端口是1082,根据自己的情况来)是需要的,只是加错了位置。我们先把本地的配置文件里面的这些代码注释掉

然后,我们打开ssh的配置文件,加入这么一段

将本地代理的端口,在远程穿透回来,此时远程服务器也用上了代理

然后再在远程的settings.json中配置代理端口

{ "http.proxy": "http://127.0.0.1:1082", "http.proxyStrictSSL": false, "remote.extensionKind": { "pub.name": [ "ui" ] } }

重启vscode,你会发现Claude又回来了QAQ

并且Agent模型也可以正常使用了,因为工作区一直在远程上,不会出现问题

Read more

2026开年,AI圈迎来真正的「王炸」——DeepSeek V4 重磅发布

2026开年,AI圈迎来真正的「王炸」——DeepSeek V4 重磅发布

2026开年,AI圈迎来真正的「王炸」——DeepSeek V4 重磅发布。 这不是一次常规迭代,而是国产大模型首次在硬核核心能力上超越国际顶级模型,用技术实力重新定义下一代AI标准。 --- 一、全球第一:编程能力登顶,真正的工程级AI 在权威编程基准 SWE-Bench Verified 中,DeepSeek V4 拿下 83.7% 高分,超越 GPT-5.2、Claude Opus 4.5,成为全球首个编程能力登顶的国产大模型。 它不只是代码补全,而是全栈工程助手: * 支持 338种编程语言,覆盖主流与工业遗留语言 * 一次性读懂数十万行跨文件代码库,处理1亿token(约5000万字)的大型代码库仅需2分18秒且全程无卡顿 * 自动完成架构设计、缺陷检测、重构优化、测试生成,实测生成Python自动化脚本“一次过,一个Bug都没有” * 复杂业务逻辑准确率大幅领先上一代,在前端开发、

By Ne0inhk

马上有钱,港大造了个AI打工人:给10块钱启动资金,7小时赚了1万美金!

$10变$10,000,AI时薪1500美元,这还是你认识的那个"小助手"吗? 昨天,香港大学数据科学实验室刚刚发布了一个让整个AI圈都炸锅的项目——ClawWork。 什么概念?就是给AI一张10美元的"创业资金",让它自己在真实的职业任务中打拼,自己赚钱养活自己。结果呢?顶级AI在7小时内赚了1万美金,时薪达到1500+美元。 这已经不是什么技术demo了,这是AI从"助手"彻底升级成"打工人"的分水岭。 🔥 这到底是个什么东西? 想象一下,如果你的AI助手突然变成了一个真正的"员工": * • 每句话都要花钱:每次调用大模型,都从它的工资里扣钱 * • 必须赚钱养活自己:只能通过完成真实工作任务获得收入 * • 一分钱都不能浪费:搜索一次网页要0.0008美元,写错了代码重新跑,钱就没了 这就像把一个刚毕业的大学生扔到北京,

By Ne0inhk
AI实践(3)Token与上下文窗口

AI实践(3)Token与上下文窗口

AI实践(3)Token与上下文窗口 Author: Once Day Date: 2026年3月2日 一位热衷于Linux学习和开发的菜鸟,试图谱写一场冒险之旅,也许终点只是一场白日梦… 漫漫长路,有人对你微笑过嘛… 全系列文章可参考专栏: AI实践成长_Once-Day的博客-ZEEKLOG博客 参考文章:Documentation - Claude API DocsOpenAI for developersPrompt Engineering GuidePrompt Engineering Guide: The Ultimate Guide to Generative AICompaction | OpenAI APIContext windows - Claude API DocsEffective context engineering for AI agents \ Anthropic大模型入门必知:一文搞懂Token概念,看完这篇终于懂了! -

By Ne0inhk
量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的"三板斧" 摘要:做嵌入式AI开发的同学,大概率都遇到过这样的困境:训练好的AI模型(比如CNN),在PC上用TensorFlow/PyTorch跑起来流畅丝滑,可移植到单片机、MCU等边缘设备上,要么内存爆掉,要么推理延迟高到无法使用——毕竟边缘设备的资源太有限了:几百KB的RAM、几MB的Flash、没有GPU加速,甚至连浮点运算都要靠软件模拟。这时,依赖庞大的深度学习框架就成了“杀鸡用牛刀”,甚至根本无法运行。而C语言,作为嵌入式开发的“母语”,凭借其极致的性能控制、内存可控性和无 runtime 依赖的优势,成为边缘设备AI推理引擎的最佳选择。但纯C语言实现AI推理,绝不是简单地“用C重写框架代码”,关键在于掌握三大核心优化技术——这就是我们今天要讲的AI推理“三板斧”:量化、算子融合、内存映射。 它们三者协同作用,能从“体积、速度、内存”三个维度彻底优化AI推理性能:

By Ne0inhk