目前 GitHub Copilot 对模型提供商的支持比较有限,默认只允许接入几家国外厂商,没法直接调用自定义的 OpenAI 兼容 API。如果你想在 Copilot 里用这些第三方模型,主要有两条路可以走。
第一条是改 Copilot Chat 的源码,在模型选择器里加个自定义选项。这招理论上可行,但坑不少。官方开源的版本更新慢,跟最新版 VSCode 容易不兼容。打包的时候 npm install 经常报错,得折腾半天。最麻烦的是,就算你改了 package.json 里的版本号,打包出来的插件在 VSCode 里可能还是看不到模型选择器。除非你是资深开发者愿意花大量时间调试,否则不太推荐这条路。
第二条是用代理工具把 OpenAI 兼容接口'伪装'成 Ollama 协议。这个思路更稳妥,因为 Copilot 原生就支持 Ollama。有个叫 oai2ollama 的项目正好能派上用场,它能在本地起一个服务,把你的 API 请求转发并转换成 Copilot 能识别的格式。
具体怎么操作呢?先别急着动手,先把环境搭好。你需要安装 uv 工具,这是 Python 生态里很轻量的包管理器。装好后,直接在命令行跑转换程序就行,不用非得下载整个项目源码。
命令很简单,带上你的 API Key 和基础地址:
uvx oai2ollama --api-key your_api_key --base-url provider_base_url
要是想后台常驻,可以写个批处理脚本自动启动:
@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"
最后一步,回到 VSCode 的 Copilot 设置里,模型选择器选'Ollama',这时候应该就能看到刚才启动的服务提供的模型列表了。如果没显示出来,多半是地址的问题,试着在 base-url 后面补上 /v1 通常就能解决。
虽然微软官方已经在讨论直接支持自定义端点,未来可能会原生集成,但目前这套方案是最快能落地的办法。

