GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明

OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。

⚠️ Warning

登录 GitHub Copilot​ 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。

推荐直接用免费的free账号登录即可。

二、插件安装

在 VS Code 扩展市场安装并启用:

  • GitHub Copilot
  • GitHub Copilot Chat​
  • ​OAI Compatible Provider for Copilot​(johnny-zhao.oai-compatible-copilot​)

安装后:Developer: Reload Window​ 重载窗口一次。

确保已在 VS Code 中登录 GitHub,并且 Copilot 正常可用(不然你分不清是 Copilot 本身问题还是 provider 转发问题)。

三、配置示例

建议将配置放置在项目内的: .vscode/settings.json​

1、单模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

2、多模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-opus-4-5-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-sonnet-4-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 8192, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

3、配置讲解

配置主要分为两块:

  • 顶层通用项(全局 API 地址、重试等)
  • ​oaicopilot.models​数组(定义可选的大模型)
顶层通用项
字段作用
​oaicopilot.baseUrl​通用 API 基地址,推荐全局只用一处。
​oaicopilot.delay​控制 Copilot 插件调用接口时的延迟,一般设 0(默认即可)
​oaicopilot.readFileLines​配合 Copilot 文件分段补全时用,设 0 即可
​oaicopilot.retry​Copilot Chat请求失败时的自动重试策略。
​oaicopilot.commitLanguage​Copilot建议生成commit的语言,通常填"English"即可
模型池 oaicopilot.models​
字段作用
​id​必须和/v1/models​能获得的模型id​一致(如"google/gemini-3-pro-preview"​)
​owned_by​一般填"provider名"即可,描述归属或来源
​baseUrl​建议只在顶层写一处,模型对象里不强制(写也可以,冲突时顶层优先)
​apiMode​绝大多数 Soraharu/OneAPI都填"openai",如果是anthropic/olllama/自定义才需变
​context_length​最大上下文长度(token数,依照模型能力填)
​max_tokens​每次回应的最大输出(token数,官方建议4096/8192之类)
​vision​支持多模态(如Gemini/Claude/Sonnet等具备图文能力才设true)
​temperature​控制AI输出随机性,越低回答越稳定,代码任务建议设为0

4、配置KEY

在 VSCode​ 页面进行操作:

  • ​Windows/Linux​ 环境:​​Ctrl+Shift+P​
  • ​Mac​ 环境:Cmd+Shift+P​

输入下面的命令,然后将KEY输入进去:

​Set OAl Compatible Multi-Provider Apikey​

四、模型使用

  1. 点击进入 Copilot 聊天框
  2. 点击模型选择框
  3. 点击模型管理(Manage Modules....)
  4. 选择 OAI Compatible​ 将左侧的隐藏眼睛关闭,这样我们自己设定的模型就会出现在选择框了。

Read more

40款主流的AI工具集盘点,这些好用的AI软件一定要知道!

40款主流的AI工具集盘点,这些好用的AI软件一定要知道!

AI工具哪款好,有哪些值得推荐? 不可否认,当下各式各样的AI工具层出不穷,面对不断涌现的AI工具,各位在选用时是否无从下手,或是抽不出时间,逐一体验对比不同AI工具的差异…… 这也是现如今许多人共同面对的问题,为了让大家更快地找到自己需要的AI工具,笔者花费了数天时间,从500+软件中精选出40款时下火热、行业主流的AI工具,并按照类别逐一进行了分类,方便各位可以更快地找到满足自己所需的AI工具。 本次介绍的AI工具涵盖如下类别: * AI设计工具:博思AIPPT、Looka、Design Beast、Pixso、Canva * AI写作工具和文本生成器:boardmix AI、ChatGPT、Writer、Notion AI、ShortlyAI * AI绘画工具和艺术生成器:boardmix AI、Pixso AI、DALL-E、Stable Diffusion、Picsart * AI项目管理工具:boardmix、Smartsheet、ClickUp、Zoho Projects、Airtable * AI视频生成工具和编辑器:Runway、

前端微前端:大型应用的模块化解决方案

前端微前端:大型应用的模块化解决方案 毒舌时刻 前端微前端?这不是过度设计吗? "我的应用不大,不需要微前端"——结果应用越来越大,维护困难, "微前端太复杂了,不如一个大单体"——结果团队协作困难,部署冲突, "我用iframe就够了"——结果性能差,用户体验差。 醒醒吧,微前端不是银弹,但对于大型应用来说,它是一个有效的解决方案! 为什么你需要这个? * 团队协作:不同团队可以独立开发和部署 * 技术栈灵活:不同微前端可以使用不同的技术栈 * 独立部署:单个微前端可以独立部署,不影响其他部分 * 可扩展性:可以轻松添加新的微前端 反面教材 <!-- 反面教材:使用iframe实现微前端 --> <!DOCTYPE html> <html>

视频续播功能实现 - 断点续看从前端到 Spring Boot 后端

视频续播功能实现 - 断点续看从前端到 Spring Boot 后端

🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》专栏19年编写主要介绍使用JAVA开发RabbitMQ的系列教程,从基础知识到项目实战 🌸《设计模式》专栏以实际的生活场景为案例进行讲解,让大家对设计模式有一个更清晰的理解 🌛《开源项目》本专栏主要介绍目前热门的开源项目,带大家快速了解并轻松上手使用 🍎 《前端技术》专栏以实战为主介绍日常开发中前端应用的一些功能以及技巧,均附有完整的代码示例 ✨《开发技巧》本专栏包含了各种系统的设计原理以及注意事项,并分享一些日常开发的功能小技巧 💕《Jenkins实战》专栏主要介绍Jenkins+Docker的实战教程,让你快速掌握项目CI/CD,是2024年最新的实战教程 🌞《Spring Boot》专栏主要介绍我们日常工作项目中经常应用到的功能以及技巧,代码样例完整 👍《Spring Security》专栏中我们将逐步深入Spring Security的各个

聚合多个顶尖AI模型,打造极速编程流|Chatbox AI 实战精讲

聚合多个顶尖AI模型,打造极速编程流|Chatbox AI 实战精讲

引言 在科研创新与代码开发的进程中,AI工具已然成为科研工作者的重要助力。但当下AI工具领域存在不少亟待解决的问题:科研人员往往需要在GPT、Claude、DeepSeek等多个模型间进行注册和切换,这一过程不仅操作复杂,还会消耗大量时间;部分功能强大的AI工具仅支持桌面端使用,或者在使用时需要借助特殊网络环境,极大地限制了使用场景;另外,单一工具的功能较为单一,难以同时满足文本处理、图像生成、文档解析等多模态需求。 ChatboxAI为这些问题提供了一体化的解决办法。作为一款覆盖多平台、集成多模型且注重隐私安全的AI生产力工具,它正重新塑造科研与编程的工作效率。大家可以访问ChatboxAI官网链接下载适用于Windows、macOS系统以及手机端的应用程序,开启高效便捷的工作新模式。 目录 * 引言 * 第一章 Chatbox AI概述 * 1.1 产品定位与功能架构 * 1.2 技术特性 * 第二章 全平台部署指南 * 2.1 设备适配方案 * 2.2 安装与配置流程(以Windows为例) * 第三章 实战:代码开发与调试 *