将第三方 OpenAI 兼容模型接入 GitHub Copilot
GitHub Copilot 默认支持的模型源有限,无法直接调用自定义的 OpenAI 兼容 API。针对这一限制,目前主要有两种解决方案。
方案一:修改插件源码
在模型选择器中新增自定义提供商选项。具体实现可参考相关开源社区的讨论。
不过这个方法存在不少坑点:
- 官方开源版本通常滞后于最新版,未来可能存在兼容性问题。
npm install打包环节容易报错,需要反复调试环境。- 关键问题:当前打包后的插件在 VS Code 中往往无法显示模型选择器。即便尝试修改
package.json中的版本号要求,该问题依然难以彻底解决。
鉴于上述不稳定性,不建议作为长期生产环境的方案。
方案二:API 协议转换(推荐)
利用 oai2ollama 项目,通过命令行工具启动服务,将 OpenAI 兼容 API 封装为 Ollama 兼容 API。这样就能利用 Copilot 模型选择器中原生的 Ollama 选项来调用第三方模型。
这个思路其实源于 VS Code Copilot 社区关于添加自定义端点配置的讨论,虽然官方未来可能会原生支持,但目前的过渡方案非常稳定。
具体操作步骤
1. 安装 UV 工具
uv 是一个快速的 Python 包管理器和运行时。确保系统中已安装并配置好环境变量。
# 全局安装 uv 工具
uv tool install oai2ollama
2. 运行转换程序
在终端中执行以下命令启动服务(无需本地下载项目代码):
uvx oai2ollama --api-key your_api_key --base-url provider_base_url
如需后台长期运行,可以创建一个批处理脚本:
@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"
3. 配置 VS Code
打开 VS Code,进入 Copilot 设置,在模型选择器中选择 "Ollama"。稍后系统会列出可用的第三方模型。

常见问题排查
如果启动后未显示模型列表,请检查终端报错信息。大多数情况下,是因为 base-url 路径不完整导致的。尝试在地址末尾添加 /v1 即可解决。
例如:
--base-url https://api.example.com/v1

