目前 GitHub Copilot 原生仅支持部分模型提供商,无法直接调用自定义 OpenAI API。针对这一限制,主要有两种实现路径。
方案一:修改 Copilot Chat 源代码
在模型选择器中新增自定义提供商选项。具体做法可参考社区中的开源插件修改方案。
不过这个方法目前存在明显问题:
- 官方开源的 Copilot Chat 插件版本通常滞后于最新版,可能存在未来兼容性问题。
- 打包过程的 npm install 环节容易报错,需要多次调试。
- 当前打包后的插件在 VSCode 中往往无法显示模型选择器。即便修改了 package.json 中的 vscode 版本号,问题依然存在。
说实话,改源码挺折腾的,除非你有极强的调试能力,否则不建议作为长期方案。
方案二:API 兼容适配(推荐)
利用 oai2ollama 项目,通过命令行工具启动服务,将 OpenAI 兼容 API 封装为 Ollama 兼容 API。由于 Copilot 原生支持 Ollama 选项,这相当于绕过了对自定义 OpenAI 端点的限制。该思路源于微软官方讨论区关于添加自定义端点配置的提议,虽然官方尚未完全落地,但此方案是目前最稳定的临时解法。
操作步骤
-
安装 UV 工具 uv 是 Python 包管理工具,用于快速运行项目。可通过 pip 或官方渠道安装。
uv tool install oai2ollama -
运行转换程序 在命令行执行以下命令启动服务(无需本地下载项目):
uvx oai2ollama --api-key your_api_key --base-url provider_base_url如需后台常驻,可编写批处理脚本保存配置。
-
配置 VS Code 打开 Copilot 模型选择器,选择"Ollama",稍候即可显示第三方模型列表。

常见问题
若未显示模型列表,请检查命令行报错信息。多数情况下,在 base-url 末尾添加 /v1 即可解决。

