背景
尽管 VSCode 持续更新,但 GitHub Copilot Chat 对自定义 OpenAI 兼容模型的原生支持一直受限。官方曾明确表示,该功能短期内仅面向内部人员开放作为实验性特性,外部开发者需自行寻找替代方案。
解决方案
社区提供了一款名为 OAI Compatible Provider for Copilot 的扩展,能够打通 VSCode 与各类 OpenAI 兼容接口的连接。通过它,你可以使用 Kimi K2、DeepSeek V3.2、GLM 4.6 等前沿开源模型来增强代码辅助能力。
扩展地址:OAI Compatible Provider for Copilot 源码仓库:JohnnyZ93/oai-compatible-copilot
核心特性
该插件兼容性很强,支持 ModelScope、SiliconFlow、DeepSeek 等几乎所有主流供应商。除了基础文本生成,它还具备以下能力:
- 支持视觉模型输入。
- 为聊天请求提供额外的配置选项。
- 支持同时配置多个供应商的模型,自动管理 API 密钥,无需反复切换。
- 支持为同一模型 ID 定义多种配置,例如控制 GLM-4.6 是否启用思考功能。

配置指南
要开始使用,首先需要在 VSCode 中安装上述扩展。随后打开设置面板,找到 oaicopilot.baseUrl 和 oaicopilot.models 项进行配置。
在 GitHub Copilot 聊天界面中,点击模型选择器,选择'管理模型…',然后选取'OAI Compatible'提供商。此时输入你的 API 密钥,密钥将保存在本地。最后从列表中选择希望添加到模型选择器中的模型即可。
配置文件示例
在 settings.json 中添加如下配置,以 ModelScope 为例:
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by": "modelscope",
"context_length"


