背景
近期 VSCode 更新后,GitHub Copilot 官方并未开放自定义模型的支持权限。官方反馈称该功能短期内仅面向内部人员作为实验性功能开放,普通用户无法直接切换底层模型。这意味着我们无法直接使用如 Kimi K2、DeepSeek V3.2 或 GLM 4.6 等开源模型来驱动 Copilot Chat。
解决方案:使用第三方扩展
虽然官方限制较多,但社区提供了成熟的替代方案。我们可以通过安装名为'OAI Compatible Provider for Copilot'的扩展,实现对 OpenAI 兼容接口的支持。
核心特性
- 支持多种 OpenAI 兼容供应商(如 ModelScope、SiliconFlow、DeepSeek 等)
- 支持视觉模型输入
- 允许为聊天请求添加额外配置选项
- 支持多供应商模型管理,无需频繁切换 API 密钥
- 可针对同一模型 ID 定义不同配置(例如控制 GLM-4.6 的思考模式开关)
快速上手
- 在 VSCode 扩展市场中搜索并安装'OAI Compatible Provider for Copilot'。
- 打开 VSCode 设置,找到
oaicopilot.baseUrl和oaicopilot.models配置项。 - 启动 GitHub Copilot 聊天窗口,点击模型选择器。
- 选择'管理模型',在列表中找到'OAI Compatible'提供商。
- 输入你的 API 密钥,系统会将其保存在本地。
- 从可用模型列表中勾选你希望使用的模型。
配置示例
以下是一个典型的 settings.json 配置片段,展示了如何接入 ModelScope 的 Qwen 模型:
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by": "modelscope",
"context_length": 256000,
"max_tokens"


