背景
VSCode 1.105.0 版本发布后,原生 Copilot Chat 对自定义 OpenAI 兼容模型的支持仍未向公众开放。官方反馈称该功能短期内仅面向内部测试,旨在快速迭代修复 Bug。对于希望使用前沿开源大模型的开发者而言,这确实是个限制。
解决方案
目前社区已提供成熟的替代方案,通过安装第三方扩展即可在 VS Code 中启用兼容 OpenAI 协议的自定义模型。推荐使用 OAI Compatible Provider for Copilot 扩展。
核心特性
该扩展支持几乎所有与 OpenAI 兼容的供应商(如 ModelScope、SiliconFlow、DeepSeek 等),并具备以下能力:
- 支持视觉模型输入。
- 允许为聊天请求添加额外配置选项。
- 支持同时管理多个供应商的模型,自动处理 API 密钥,无需反复切换。
- 可针对同一模型 ID 定义多种配置,例如控制 GLM-4.6 是否启用思考功能。
- 支持在聊天界面中显示或隐藏模型的思考与推理过程。
![配置界面示意]
配置步骤
先在 VS Code 扩展商店搜索并安装'OAI Compatible Provider for Copilot'。安装完成后,打开设置面板,找到 oaicopilot.baseUrl 和 oaicopilot.models 进行配置。
随后,进入 GitHub Copilot 聊天界面,点击模型选择器,选择'管理模型…'。在提供商列表中选择'OAI Compatible',输入你的 API 密钥(密钥将保存在本地)。最后,从下拉列表中选择你希望使用的模型即可。
配置文件示例
以下是一个典型的配置片段,以 ModelScope 为例:
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by": "modelscope",
"context_length": 256000,
"max_tokens": 8192,
"temperature": 0,
"top_p"


