VsCode远程Copilot无法使用Claude Agent问题

最近我突然发现vscode Copilot中Claude模型突然没了,我刚充的钱啊!没有Claude我还用啥Copilot

很多小伙伴知道要开代理,开完代理后确实Claude会出来,本地使用是没有任何问题的,但是如果使用远程ssh的话,会出现访问异常,连接不上的情况。这时候很多小伙伴就在网上寻找方法,在vscode setting中添加这么一段代码。可以看看这篇博客

"http.proxy": "http://127.0.0.1:1082", "remote.extensionKind": { "GitHub.copilot": [ "ui" ], "GitHub.copilot-chat": [ "ui" ], "pub.name": [ "ui" ] }

代理设置在本地回还地址,然后强制copilot也在本地上运行,这时候你会发现Claude模型出来了,ask也可以正常询问,但是Agent模式无法正常编辑,会有一段这么个提醒:

copilotAllow edits to sensitive files?The model wants to edit files outside of your workspace

这是提醒你工作区错误,但是明明发现我的工作区没有错。这其中的问题就出在了"GitHub.copilot": ["ui" ],
    "GitHub.copilot-chat": ["ui"],这两行代码会强制你的copilot在本地运行,然后你的远程路径在本地是无法识别的,所以就告诉你Workspace异常。

那么如何解决呢?

首先我们的代理地址(我这里的端口是1082,根据自己的情况来)是需要的,只是加错了位置。我们先把本地的配置文件里面的这些代码注释掉

然后,我们打开ssh的配置文件,加入这么一段

将本地代理的端口,在远程穿透回来,此时远程服务器也用上了代理

然后再在远程的settings.json中配置代理端口

{ "http.proxy": "http://127.0.0.1:1082", "http.proxyStrictSSL": false, "remote.extensionKind": { "pub.name": [ "ui" ] } }

重启vscode,你会发现Claude又回来了QAQ

并且Agent模型也可以正常使用了,因为工作区一直在远程上,不会出现问题

Read more

开源AI编程工具选型对比:opencode、GitHub Copilot谁更优?

开源AI编程工具选型对比:OpenCode、GitHub Copilot谁更优? 1. 引言 随着大模型技术的成熟,AI 编程助手已成为开发者日常开发中不可或缺的工具。从代码补全到项目规划,AI 正在重塑软件开发的工作流。在众多解决方案中,GitHub Copilot 作为最早进入市场的商业产品之一,凭借其与 VS Code 的深度集成广受欢迎;而 OpenCode 作为一个2024年开源的终端优先 AI 编程框架,迅速吸引了关注,尤其在隐私安全和本地化部署方面表现突出。 本文将围绕这两个代表性工具展开全面对比,重点分析它们的技术架构、功能特性、模型支持、隐私策略及适用场景,并结合实际使用体验,帮助开发者在不同需求下做出合理选型决策。特别地,我们还将探讨如何通过 vLLM + OpenCode 构建高性能的本地 AI Coding 应用,内置 Qwen3-4B-Instruct-2507 模型,实现高效、低延迟的代码生成能力。 2. OpenCode 核心特性解析

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

🌹欢迎来到《小5讲堂》🌹 🌹这是《文心智能体》系列文章,每篇文章将以博主理解的角度展开讲解。🌹 🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹 目录 * 前言 * 智能体信息 * 名称 * 简介 * 人设 * 开场白 * 工作流 * 消息节点 * 文本处理节点 * 插件节点 * 图片消息节点 * 输出效果 * 小技巧 * 一、结构化框架设计 * 1. **角色定位+任务拆解** * 2. **四要素公式法** * 二、多轮对话优化 * 1. **分步骤引导** * 2. **示例参考法** * 三、细节强化技巧 * 1. **输出格式标准化** * 2. **专业术语与风格** * 四、避免常见误区 * 1. **模糊需求导致输出偏差** * 2. **过度复杂导致理解困难** * 相关文章

旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版)

旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版)

🦕 旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版) 这份指南专为不支持新版软件的 Windows 7 设计,通过本地编译实现大模型运行。 手动编译可以获得最好的性能,不想自己手动编译 可以直接使用下面编译好的bin文件,同时包含下面用到的相关软件和替换文件httplib.h 链接:https://pan.quark.cn/s/2c5f627c93d7 提取码:cSJh 📋 0. 软件版本清单 请务必确保使用以下特定版本,以保证在 Win7 下的兼容性: 软件名称文件名 (根据截图)作用备注编译环境w64devkit-x64-2.5.0.7z.exe提供 GCC 编译器核心工具构建工具cmake-3.31.10-windows-x86_64.msi生成编译配置必须安装到默认路径源码工具Git_for_Windows_(64bit)_v2.45.

终极免费语音转文字:Whisper本地部署完整指南

终极免费语音转文字:Whisper本地部署完整指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为会议记录和课程笔记头疼吗?想要快速将音频内容转换为可编辑文字?OpenAI Whisper语音识别技术让你在完全离线的环境下实现专业级语音转文字功能,保护隐私的同时大幅提升工作效率! 🎯 为什么选择本地语音识别方案 在数字化时代,语音内容处理需求激增,但云端服务的隐私风险和网络依赖让人担忧。Whisper的本地部署方案完美解决了这些痛点: * 绝对隐私保护:所有处理都在本地设备完成,敏感内容无需上传 * 离线工作能力:无需网络连接,随时随地处理音频文件 * 多语言智能识别:支持99种语言的准确识别和翻译 * 专业级准确率:深度学习算法确保转录准确度高达98% 语音识别应用场景 🚀 五分钟快速上手教程 准备工作:环境配置 首先确保你的设备具备以下基础条件: * Python 3.8或更高版本 * FFmpeg多媒体处理工