背景
在 VSCode 的近期版本中,GitHub Copilot Chat 对自定义 OpenAI 兼容模型的支持并未完全开放。官方反馈表明,该功能目前主要面向内部人员作为实验性功能,未来是否对外实现取决于扩展作者的决定。若你需要在本地或特定环境中使用前沿开源模型,可以通过第三方扩展来实现。
解决方案:安装 OAI Compatible Provider 扩展
我们推荐使用名为'OAI Compatible Provider for Copilot'的扩展。它允许通过任何兼容 OpenAI 接口的提供商驱动 GitHub Copilot Chat,支持 Kimi K2、DeepSeek V3.2、GLM 4.6 等开源模型。
插件地址:OAI Compatible Provider for Copilot 开源仓库:JohnnyZ93/oai-compatible-copilot
核心特性
- 支持绝大多数 OpenAI 兼容供应商(如 ModelScope、SiliconFlow、DeepSeek 等)
- 支持视觉模型输入
- 提供额外的聊天请求配置选项
- 支持同时配置多个供应商的模型,自动管理 API 密钥,无需频繁切换
- 支持为同一模型 ID 定义多种配置(例如控制 GLM-4.6 的思考模式)
- 可控制模型在聊天界面中显示思考与推理内容

快速上手
- 在 VSCode 扩展市场中安装'OAI Compatible Provider for Copilot'
- 打开设置页面,配置
oaicopilot.baseUrl和oaicopilot.models - 启动 GitHub Copilot 聊天窗口
- 点击模型选择器,进入'管理模型…'
- 选择'OAI Compatible'提供商
- 输入你的 API 密钥,密钥将仅保存在本地
- 从列表中选择希望添加到模型选择器中的具体模型
配置文件示例
以下是一个典型的配置片段,可根据实际服务商调整:
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by":


