背景
尽管 VSCode 持续更新,但 GitHub Copilot Chat 对自定义模型的官方支持依然受限。官方反馈称该功能短期内仅面向内部人员开放,作为实验性功能推进,这意味着普通用户无法直接通过原生设置调用第三方模型。
不过社区已经提供了成熟的解决方案,只需安装特定扩展即可绕过限制,利用前沿开源大模型增强编码体验。
解决方案:OAI Compatible Provider for Copilot
在 VS Code 中安装'OAI Compatible Provider for Copilot'扩展后,即可通过任何兼容 OpenAI 的提供商驱动 GitHub Copilot Chat。目前支持的模型包括 Kimi K2、DeepSeek V3.2、GLM 4.6 等。
核心特性
- 广泛兼容:支持 ModelScope、SiliconFlow、DeepSeek 等几乎所有 OpenAI 兼容供应商。
- 视觉支持:能够处理视觉模型请求。
- 灵活配置:为聊天请求提供额外的配置选项,如控制思考与推理内容的显示。
- 多模型管理:支持同时配置多个供应商的模型,自动管理 API 密钥而无需反复切换。
- 高级参数:支持为同一模型 ID 定义多种配置,例如启用或禁用思考功能。
快速上手
- 安装扩展:在 VS Code 扩展商店搜索并安装 OAI Compatible Provider for Copilot。
- 配置环境:打开 VS Code 设置,找到
oaicopilot相关项,配置baseUrl和models。 - 启动聊天:打开 GitHub Copilot 聊天界面。
- 选择模型:点击模型选择器,选择'管理模型…',然后选择'OAI Compatible'提供商。
- 输入密钥:输入您的 API 密钥,系统会将其本地保存。
- 添加模型:从列表中选择希望添加到模型选择器中的具体模型。
配置示例
在 settings.json 中添加如下配置,这里以 ModelScope 为例:
{
"oaicopilot.baseUrl": "https://api-inference.modelscope.cn/v1",
"oaicopilot.models": [
{
"id": "Qwen/Qwen3-Coder-480B-A35B-Instruct",
"owned_by": "modelscope",
"context_length":


