背景与现状
近期 VSCode 更新后,GitHub Copilot Chat 对自定义 OpenAI 兼容模型的支持依然受限。官方反馈表明,该功能目前仅面向内部人员开放,作为高级实验性功能,普通用户无法直接通过原生渠道启用。这意味着我们需要借助社区工具来突破这一限制。
解决方案:第三方扩展
社区提供了名为 OAI Compatible Provider for Copilot 的扩展,能够接管 Copilot Chat 的请求路由,使其支持任何兼容 OpenAI 协议的模型服务。
核心特性
- 广泛兼容:支持 ModelScope、SiliconFlow、DeepSeek 等主流 OpenAI 兼容服务商。
- 多模型管理:可配置多个供应商及模型,自动管理 API 密钥,无需频繁切换上下文。
- 视觉支持:部分版本支持视觉模型的输入处理。
- 推理控制:支持在聊天界面中控制模型是否显示思考过程(Reasoning)。

配置步骤
安装好扩展后,关键的一步在于配置。你需要打开 VSCode 的设置文件(settings.json),添加以下配置项。注意将 baseUrl 替换为你实际使用的服务商地址。
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by": "modelscope",
"context_length": 256000,
"max_tokens":


