GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明

OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。

⚠️ Warning

登录 GitHub Copilot​ 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。

推荐直接用免费的free账号登录即可。

二、插件安装

在 VS Code 扩展市场安装并启用:

  • GitHub Copilot
  • GitHub Copilot Chat​
  • ​OAI Compatible Provider for Copilot​(johnny-zhao.oai-compatible-copilot​)

安装后:Developer: Reload Window​ 重载窗口一次。

确保已在 VS Code 中登录 GitHub,并且 Copilot 正常可用(不然你分不清是 Copilot 本身问题还是 provider 转发问题)。

三、配置示例

建议将配置放置在项目内的: .vscode/settings.json​

1、单模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

2、多模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-opus-4-5-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-sonnet-4-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 8192, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

3、配置讲解

配置主要分为两块:

  • 顶层通用项(全局 API 地址、重试等)
  • ​oaicopilot.models​数组(定义可选的大模型)
顶层通用项
字段作用
​oaicopilot.baseUrl​通用 API 基地址,推荐全局只用一处。
​oaicopilot.delay​控制 Copilot 插件调用接口时的延迟,一般设 0(默认即可)
​oaicopilot.readFileLines​配合 Copilot 文件分段补全时用,设 0 即可
​oaicopilot.retry​Copilot Chat请求失败时的自动重试策略。
​oaicopilot.commitLanguage​Copilot建议生成commit的语言,通常填"English"即可
模型池 oaicopilot.models​
字段作用
​id​必须和/v1/models​能获得的模型id​一致(如"google/gemini-3-pro-preview"​)
​owned_by​一般填"provider名"即可,描述归属或来源
​baseUrl​建议只在顶层写一处,模型对象里不强制(写也可以,冲突时顶层优先)
​apiMode​绝大多数 Soraharu/OneAPI都填"openai",如果是anthropic/olllama/自定义才需变
​context_length​最大上下文长度(token数,依照模型能力填)
​max_tokens​每次回应的最大输出(token数,官方建议4096/8192之类)
​vision​支持多模态(如Gemini/Claude/Sonnet等具备图文能力才设true)
​temperature​控制AI输出随机性,越低回答越稳定,代码任务建议设为0

4、配置KEY

在 VSCode​ 页面进行操作:

  • ​Windows/Linux​ 环境:​​Ctrl+Shift+P​
  • ​Mac​ 环境:Cmd+Shift+P​

输入下面的命令,然后将KEY输入进去:

​Set OAl Compatible Multi-Provider Apikey​

四、模型使用

  1. 点击进入 Copilot 聊天框
  2. 点击模型选择框
  3. 点击模型管理(Manage Modules....)
  4. 选择 OAI Compatible​ 将左侧的隐藏眼睛关闭,这样我们自己设定的模型就会出现在选择框了。

Read more

万方AIGC检测通不过?这几款降AI工具实测有效

万方AIGC检测通不过?这几款降AI工具实测有效

万方AIGC检测通不过?这几款降AI工具实测有效 TL;DR:万方AIGC检测算法与知网、维普不同,需要选择支持万方平台的降AI工具。推荐嘎嘎降AI(多平台适配,4.8元/千字)和率降(稳定可靠,4.2元/千字)。 万方检测的特殊性 很多同学以为降AI工具都是通用的,用一个就能搞定所有平台。但实际上,知网、维普、万方三大平台的AIGC检测算法各有不同。我之前用一款只针对知网优化的工具处理论文,知网检测降到了8%,但万方一测还有32%,差点没过学校的检测线。 万方的AIGC检测更侧重于文本特征分析,对某些AI生成模式的识别与知网有差异。所以如果你学校用的是万方检测,一定要确认工具是否支持万方平台,别只看知网的效果数据。 支持万方的降AI工具对比 工具价格(千字)万方效果达标率特色链接嘎嘎降AI4.8元60%→8%99.26%多平台适配官网率降4.2元65%→12%97%稳定可靠官网去AIGC3.5元70%→18%96%通用型官网比话降AI8元知网专精99%

保姆级教程:手把手教你部署Llama-3.2-3B智能对话模型

保姆级教程:手把手教你部署Llama-3.2-3B智能对话模型 你是否试过在本地快速跑起一个真正能聊、能写、能思考的轻量级大模型?不是动辄几十GB显存的庞然大物,而是一个仅需几GB内存、开箱即用、响应迅速的3B级别智能对话助手?Llama-3.2-3B正是这样一款平衡了能力与效率的实用型模型——它由Meta官方发布,支持多语言、经过高质量指令微调,在代码理解、逻辑推理、内容创作等任务上表现稳健,且对硬件要求友好。 本教程不讲抽象原理,不堆复杂配置,全程围绕「你能立刻用起来」这个目标展开。我们将使用Ollama这一极简部署工具,跳过Docker构建、环境编译、模型转换等传统高门槛步骤,从零开始,5分钟内完成模型拉取、服务启动、网页交互全流程。无论你是刚接触AI的新手,还是想快速验证想法的开发者,只要有一台能联网的笔记本(Windows/macOS/Linux均可),就能跟着本文一步步操作,亲眼看到模型生成第一句完整回答。 不需要GPU,不需要conda虚拟环境,不需要手动下载模型权重文件——Ollama已为你封装好所有底层细节。你只需打开终端,敲几行命令,剩下的,交给它。 1.

Photoshop AI插件终极指南:ComfyUI与Stable Diffusion完美融合

还在为AI绘画和Photoshop之间的切换烦恼吗?设计师必看!今天带来Comfy-Photoshop-SD插件的完整安装使用指南,让你在Photoshop中直接玩转Stable Diffusion AI绘画,实现真正的无缝创作体验✨ 【免费下载链接】Comfy-Photoshop-SDDownload this extension via the ComfyUI manager to establish a connection between ComfyUI and the Auto-Photoshop-SD plugin in Photoshop. https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin 项目地址: https://gitcode.com/gh_mirrors/co/Comfy-Photoshop-SD 🚀 三分钟极速安装指南 第一步:安装Auto-Photoshop-SD基础插件 首先需要安装Auto-Photoshop-SD插件v1.4.0或更高版本。选择.c

打造智能桌面机器人的7个关键技术突破

打造智能桌面机器人的7个关键技术突破 【免费下载链接】ElectronBot 项目地址: https://gitcode.com/gh_mirrors/el/ElectronBot 想不想在桌面上拥有一个能眨眼、会点头、还能和你互动的智能伙伴?今天我将带你深入探索如何从零开始构建一个功能完整的智能桌面机器人。无论你是嵌入式开发新手还是经验丰富的工程师,这篇文章都将为你提供清晰的技术路径和实用的实现思路。 为什么智能桌面机器人值得你投入时间? 在开始技术细节之前,我们先聊聊这个项目的独特价值。智能桌面机器人不仅仅是科技爱好者的玩具,它更是一个集机械设计、电子工程、软件编程于一体的完美学习平台。通过这个项目,你将: * 掌握嵌入式系统开发全流程:从硬件选型到固件编程 * 理解机械传动系统设计:学习舵机控制和精密齿轮传动 * 构建人机交互应用:实现手势识别、语音控制等智能功能 从认知到实践:智能桌面机器人开发的7个关键步骤 第一步:理解机器人的"骨架"——机械结构设计 机械结构是机器人的物理基础,ElectronBot采用模块化设计理念,将复杂的机器人分解为可管理的