接入第三方 OpenAI 兼容模型到 GitHub Copilot
目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,本文总结了在 Copilot 中接入 OpenAI 兼容 API 的方法。
实现方法主要分为两种:
- 方案一:修改 Copilot Chat 源代码 - 在模型选择器中新增自定义提供商选项。
- 方案二:API 兼容适配 - 将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。
方法一(存在局限性)
具体做法可参考社区关于修改 Copilot chat 插件增加自定义模型提供商的教程。

该方法主要存在以下问题:
- 官方开源的 Copilot chat 插件版本通常滞后于最新版,可能存在未来兼容性问题。
- 打包过程的 npm install 环节容易报错,需要多次调试。
- 重要:当前打包后的 Copilot chat 插件在 VSCode 中无法显示模型选择器。虽然原作者指出这是由于插件要求的 VSCode 最低版本与实际版本不匹配所致,但即便修改了 package.json 中的 vscode 版本号,问题依然存在。
方法二(推荐,长期有效)
这一方法基于 Github 上的 oai2ollama 项目,它通过命令行工具启动一个服务,将 OpenAI 兼容 API 封装为 Ollama 兼容 API。特别适合为不支持自定义 OpenAI API 但支持 Ollama 的编码代理(如 VS Code 中的 GitHub Copilot)提供自定义模型支持。
这一项目的灵感来源于 vscode-copilot GitHub 讨论区中关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来 Copilot 版本可能直接支持第三方模型。
具体操作步骤
-
安装 UV 工具 详细安装教程请参考 Windows 系统 UV 安装及路径配置指南。
- 执行
uv tool install进行永久安装。 - 创建批处理文件(双击运行)以简化操作。
- 执行
-
配置 VS Code 在 Copilot 模型选择器中选择 "Ollama",稍候将显示第三方模型列表。

-
运行转换程序 在命令行直接执行(无需本地下载项目):
uvx oai2ollama --api-key your_api_key --base-url provider_base_url如需长期使用,可选择以下任一方式:
@echo off powershell -NoExit-Command "uvx oai2ollama --api-key your_api_key --base-url provider_base_url"

