背景
VSCode 新版本发布后,GitHub Copilot 原生并未开放自定义模型支持。官方反馈表示,该功能在可预见的未来仅面向内部人员作为'高级'实验功能开放,是否实现特定模型提供者的功能交由扩展作者自行决定。
关于 Issue 的回复中提到,如果该功能对你很重要,建议切换到内部版本 insider。
解决方案
用户无需等待官方更新,只需在 VS Code 中安装名为 OAI Compatible Provider for Copilot 的扩展。通过该扩展,可以使用前沿开源大模型(如 Kimi K2、DeepSeek V3.2、GLM 4.6 等)驱动 GitHub Copilot Chat。
核心特性
- 支持几乎所有与 OpenAI 兼容的供应商,例如 ModelScope、SiliconFlow、DeepSeek…
- 支持视觉模型。
- 为聊天请求提供额外的配置选项。
- 支持同时配置来自多个供应商的模型,自动管理 API 密钥而无需反复切换。
- 支持为同一模型 ID 定义多种配置(例如为 GLM-4.6 启用/禁用思考功能)。
- 支持控制模型在聊天界面中显示思考与推理内容。

配置步骤
- 安装'OAI Compatible Provider for Copilot'扩展。
- 打开 VS Code 设置,配置
oaicopilot.baseUrl和oaicopilot.models。 - 打开 GitHub Copilot 聊天界面。
- 点击模型选择器,选择'管理模型…'。
- 选择'OAI Compatible'提供商。
- 输入您的 API 密钥 —— 它将被本地保存。
- 选择您希望添加到模型选择器中的模型。
配置示例
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1"


