解决 VS Code 中 GitHub Copilot Chat 遇到的 `claude-3.7` 模型不支持问题

解决 VS Code 中 GitHub Copilot Chat 遇到的 `claude-3.7` 模型不支持问题

解决 VS Code 中 GitHub Copilot Chat 遇到的 claude-3.7 模型不支持问题

最近在 VS Code 中使用 Cline、Roo Code 插件的时候,尝试切换到 claude-3.7 模型时遇到了如下错误:

API 请求失败 请求失败: 400 {"error":{"message":"此请求不支持模型","param":"model","code":"model_not_supported","type":"invalid_request_error"}} 

然而,当选择 claude-3.5 模型时,功能正常。本文将介绍问题的原因以及如何手动解决该问题。


问题描述

Cline、Roo Code 等插件可以使用 VS Code LM API 来工作, VS Code LM API 提供了多种语言模型选项,但我发现,虽然插件中启用了 claude-3.7 模型,但在实际使用时却提示模型不被支持。而其他模型(如 claude-3.5)则可以正常使用。

在这里插入图片描述

原因分析

经过进一步调查,这一问题是由 Microsoft 引发的,具体表现为 GitHub Copilot Chat 在发送 API 请求时包含了特定的头信息(x-onbehalf-extension-id),导致 API 服务器拒绝了对 claude-3.7 模型的支持。简单来说,Microsoft 的服务尚未完全准备好支持 claude-3.7 模型。


解决方案

尽管这是由 Microsoft 引发的问题,但我们可以采取一些手动措施来绕过限制,从而启用 claude-3.7 模型。

以下是详细步骤:

步骤 1:找到扩展文件夹

Windows:

查找类似以下名称的文件夹:

github.copilot-chat-<版本号> 

打开文件资源管理器并导航到:

%USERPROFILE%\.vscode\extensions\ 
macOS/Linux:

找到类似以下名称的文件夹:

github.copilot-chat-<版本号> 

打开终端并导航到:

~/.vscode/extensions/ 

步骤 2:打开 extension.js 文件

  1. 进入文件夹 github.copilot-chat-<版本号>/dist/
  2. 使用你喜欢的文本编辑器(如 VS Code)打开文件 extension.js

步骤 3:定位标头代码

使用编辑器的搜索功能(快捷键通常是 Ctrl+FCmd+F)搜索以下内容:

"x-onbehalf-extension-id" 

步骤 4:移除或注释掉标头代码

找到包含以下内容的代码段:

S==="getExtraHeaders"?function(){return{...f.getExtraHeaders?.()??{},"x-onbehalf-extension-id":`${A}/${c}`};}:S==="acquireTokenizer"? f.acquireTokenizer.bind(f): Reflect.get(f,S,D);
解决方法 :直接删除标头代码

完全删除以下部分:

"x-onbehalf-extension-id":`${A}/${c}`

并确保删除逗号以保持语法正确。


步骤 5:保存并重启 VS Code

  1. 保存对 extension.js 文件的修改。
  2. 关闭所有正在运行的 VS Code 实例。
  3. 重新打开 VS Code,以使更改生效。

步骤 6:验证更改

  1. 打开你常用的代码文件。
  2. 启动 Cline、Roo Code并尝试使用 claude-3.7 模型。
  3. 如果一切正常,你应该能够看到模型的响应。
在这里插入图片描述

注意事项

  1. 备份文件:在修改扩展文件之前,请务必备份原始的 extension.js 文件,以免出现问题时无法恢复。
  2. 更新风险:如果你更新了 GitHub Copilot Chat 插件,你的更改可能会被覆盖。
  3. 安全性:尽管 GitHub 官方确认这些操作是安全的,但仍然建议仅在了解风险的情况下进行此类修改。

总结

通过手动移除不必要的头信息,我们可以暂时解决 VS Code 中 Cline、Roo Code 对 claude-3.7 模型不支持的问题。希望 Microsoft 能尽快修复此问题,让所有用户都能无缝使用最新模型!

如果你有任何疑问或遇到问题,请随时在评论区留言,我们将尽力协助你解决问题。


祝编程愉快!

.

.

Read more

VSCode GitHub Copilot 安装与使用完全指南

VSCode GitHub Copilot 安装与使用完全指南

文章目录 * 一、安装准备 * 1.1 系统要求 * 1.2 Copilot订阅选择 * 1.3 获取访问权限 * 二、安装步骤 * 2.1 安装GitHub Copilot基础扩展 * 2.2 安装GitHub Copilot Chat扩展 * 2.3 登录和授权 * 三、基本使用:代码自动完成 * 3.1 内联代码建议 * 3.2 自定义Copilot配置 * 3.3 使用注释引导Copilot * 四、使用Copilot Chat * 4.1 启动聊天会话 * 4.2 常见Chat命令和技巧 * 4.3 聊天模式

By Ne0inhk

llama-cpp-python上下文窗口扩展:突破长度限制技巧

llama-cpp-python上下文窗口扩展:突破长度限制技巧 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 在处理长文档、多轮对话或复杂任务时,你是否经常遇到模型上下文窗口不足的问题?本文将介绍三种实用方法,帮助你突破llama-cpp-python的长度限制,轻松处理超长文本。读完本文,你将掌握:基础参数调优、滑动窗口实现和智能文本分块的完整解决方案。 核心参数解析:n_ctx与RoPE缩放 llama-cpp-python的上下文窗口大小主要由n_ctx参数控制,默认值为512 tokens。通过修改这个参数,可以直接调整模型能处理的最大上下文长度。以下是关键参数说明: 参数名类型描述默认值n_ctxint上下文窗口大小(tokens)512rope_scaling_typeintRoPE缩放类型LLAMA_ROPE_SCALING_TYPE_UNSPECIFIEDrope_freq_ba

By Ne0inhk
收藏必备!9个GitHub热门开源智能体项目:从小白到高手的完整进阶指南

收藏必备!9个GitHub热门开源智能体项目:从小白到高手的完整进阶指南

本文精选9个GitHub热门开源AI智能体项目,涵盖从入门级到专业级应用,包括AutoGPT、MetaGPT、LangChain等。这些项目能帮助读者从零开始构建自己的AI助手,无需从零造轮子,快速实现场景落地。无论你是想体验智能体还是将其融入工作流,这份清单都能提供从小白到进阶的完整学习路径,助你高效解决实际问题,提升工作效率。 智能体到底值不值得学? 如果用一句大白话来解释,智能体就是“一个能自己干活的AI助手”。你给它一个目标,它会自己拆解任务、调用工具、调整策略,甚至可以和其他智能体组队“开工”。 对我这种习惯边学边试的产品经理来说,智能体最吸引人的地方有两个: * 不用从零造轮子:开源项目直接 clone 下来,改改配置就能用。 * 场景落地快:从写日报、整理资料到模拟团队协作,都能很快跑起来。 所以说,如果你只是想体验智能体,随便玩玩之前我推荐的国产智能体就够了;但如果你真想让 AI 融入工作流,那下面这 9 个项目,基本能覆盖从小白到进阶开发的所有阶段。 我推荐的9个开源智能体项目 下面大部分我都简单试过,但不完全,今天先整理出来给大家 1. Au

By Ne0inhk