背景
随着 VSCode 新版本的发布,部分用户发现官方对自定义模型的 Copilot 支持仍有限制。GitHub 官方反馈该功能目前主要面向内部测试,扩展作者需自行实现兼容性支持。
社区扩展方案
针对上述限制,社区提供了成熟的解决方案,通过第三方扩展即可在 VS Code 中集成 OpenAI 兼容的自定义模型。
推荐安装扩展:OAI Compatible Provider for Copilot
借助该插件,你可以使用 Kimi K2、DeepSeek V3.2、GLM 4.6 等前沿开源大模型驱动 GitHub Copilot Chat。
核心特性
- 多供应商支持:兼容 ModelScope、SiliconFlow、DeepSeek 等几乎所有 OpenAI 兼容接口。
- 视觉模型支持:可处理图像输入任务。
- 灵活配置:为聊天请求提供额外选项,支持同时管理多个供应商的 API 密钥。
- 思考过程控制:支持显示或隐藏模型的推理与思考内容。

快速上手
- 在 VS Code 扩展商店搜索并安装'OAI Compatible Provider for Copilot'。
- 打开设置页面,找到
oaicopilot相关配置项。 - 填写
baseUrl指向你的 API 服务地址。 - 在
models数组中定义可用的模型参数,包括 ID、上下文长度及温度等。 - 重启 Copilot 聊天窗口,点击模型选择器,切换到'OAI Compatible'提供商。
- 输入本地保存的 API 密钥,即可开始调用。
配置示例
以下是一个典型的 settings.json 配置片段,以 ModelScope 为例:
{
"oaicopilot.baseUrl"


