GitHub Copilot 目前仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,总结接入 OpenAI 兼容 API 的方法如下:
实现方法主要分为两种:
方案一:修改 Copilot Chat 源代码 在模型选择器中新增自定义提供商选项。
方案二:API 兼容适配 将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。
方法一(目前存在问题)
具体做法可参考社区相关教程。这里只说一下该方法存在的问题:
- 官方开源的 Copilot Chat 插件版本通常滞后于最新版,可能存在未来兼容性问题。
- 打包过程的 npm install 环节容易报错,需要多次调试。
- 重要 当前打包后的 Copilot Chat 插件在 VSCode 中无法显示模型选择器。虽然原作者指出这是由于插件要求的 VSCode 最低版本与实际版本不匹配所致,但即便修改了 package.json 中的 vscode 版本号,问题依然存在。
方法二(长期有效)
这一方法基于 Github 上的 oai2ollama 项目,它通过命令行工具启动一个服务,将 OpenAI 兼容 API 封装为 Ollama 兼容 API。特别适合为不支持自定义 OpenAI API 但支持 Ollama 的编码代理(如 VS Code 中的 GitHub Copilot)提供自定义模型支持。 这一项目的灵感来源于 vscode-copilot GitHub 讨论区中 关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来 Copilot 版本可能直接支持第三方模型。
言归正传,具体操作步骤如下:
- 安装 UV 工具
执行
uv tool install进行永久安装。 创建批处理文件(双击运行):
配置 VS Code 在 Copilot 模型选择器中选择"Ollama",稍后将显示第三方模型列表。

运行转换程序 在命令行直接执行(无需本地下载项目):
uvx oai2ollama --api-key your_api_key --base-url provider_base_url
如需长期使用,可选择以下任一方式:
@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"
常见问题:若未显示模型列表,请检查命令行报错信息。多数情况下,在 base-url 末尾添加 /v1 即可解决。

