VSCode 近期版本更新后,原生 Copilot Chat 对自定义 OpenAI 兼容模型的支持依然受限。GitHub 官方曾回复称该功能短期内仅面向内部测试,建议开发者自行寻找替代方案。对于希望使用 Kimi K2、DeepSeek V3.2 或 GLM 4.6 等前沿开源模型的团队来说,这确实是个痛点。
好在社区已经提供了成熟的解决方案。通过安装名为'OAI Compatible Provider for Copilot'的扩展,我们可以让 GitHub Copilot Chat 接入任何兼容 OpenAI 协议的第三方服务。这不仅支持 ModelScope、SiliconFlow 等主流供应商,还能处理视觉模型请求。更实用的是,它允许我们在同一个界面下管理多个供应商的 API 密钥,无需反复切换环境。
实际配置过程并不复杂。首先从 VS Code 市场安装该扩展。随后进入设置页面,重点配置 oaicopilot.baseUrl 指向你的推理服务地址,并在 oaicopilot.models 中定义可用的模型列表。这里需要注意,模型 ID 和上下文长度需与实际服务保持一致。
完成基础配置后,打开 Copilot 聊天窗口,点击模型选择器,找到'管理模型…'选项。在弹出的面板中选择'OAI Compatible'提供商,填入你的 API Key(密钥会保存在本地)。最后,勾选你希望添加到下拉菜单中的模型即可。
下面是一个典型的配置片段,供参考:
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by": "modelscope",
"context_length": 256000,
"max_tokens": 8192,
"temperature": 0,
"top_p": 1
}
]
}
此外,部分模型支持控制思考过程的显示。如果服务端返回了推理内容,扩展也能在聊天界面中正确渲染,方便我们理解模型的决策路径。这种灵活性对于需要深度定制 AI 辅助体验的开发者来说非常关键。


