GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明

OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。

⚠️ Warning

登录 GitHub Copilot​ 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。

推荐直接用免费的free账号登录即可。

二、插件安装

在 VS Code 扩展市场安装并启用:

  • GitHub Copilot
  • GitHub Copilot Chat​
  • ​OAI Compatible Provider for Copilot​(johnny-zhao.oai-compatible-copilot​)

安装后:Developer: Reload Window​ 重载窗口一次。

确保已在 VS Code 中登录 GitHub,并且 Copilot 正常可用(不然你分不清是 Copilot 本身问题还是 provider 转发问题)。

三、配置示例

建议将配置放置在项目内的: .vscode/settings.json​

1、单模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

2、多模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-opus-4-5-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-sonnet-4-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 8192, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

3、配置讲解

配置主要分为两块:

  • 顶层通用项(全局 API 地址、重试等)
  • ​oaicopilot.models​数组(定义可选的大模型)
顶层通用项
字段作用
​oaicopilot.baseUrl​通用 API 基地址,推荐全局只用一处。
​oaicopilot.delay​控制 Copilot 插件调用接口时的延迟,一般设 0(默认即可)
​oaicopilot.readFileLines​配合 Copilot 文件分段补全时用,设 0 即可
​oaicopilot.retry​Copilot Chat请求失败时的自动重试策略。
​oaicopilot.commitLanguage​Copilot建议生成commit的语言,通常填"English"即可
模型池 oaicopilot.models​
字段作用
​id​必须和/v1/models​能获得的模型id​一致(如"google/gemini-3-pro-preview"​)
​owned_by​一般填"provider名"即可,描述归属或来源
​baseUrl​建议只在顶层写一处,模型对象里不强制(写也可以,冲突时顶层优先)
​apiMode​绝大多数 Soraharu/OneAPI都填"openai",如果是anthropic/olllama/自定义才需变
​context_length​最大上下文长度(token数,依照模型能力填)
​max_tokens​每次回应的最大输出(token数,官方建议4096/8192之类)
​vision​支持多模态(如Gemini/Claude/Sonnet等具备图文能力才设true)
​temperature​控制AI输出随机性,越低回答越稳定,代码任务建议设为0

4、配置KEY

在 VSCode​ 页面进行操作:

  • ​Windows/Linux​ 环境:​​Ctrl+Shift+P​
  • ​Mac​ 环境:Cmd+Shift+P​

输入下面的命令,然后将KEY输入进去:

​Set OAl Compatible Multi-Provider Apikey​

四、模型使用

  1. 点击进入 Copilot 聊天框
  2. 点击模型选择框
  3. 点击模型管理(Manage Modules....)
  4. 选择 OAI Compatible​ 将左侧的隐藏眼睛关闭,这样我们自己设定的模型就会出现在选择框了。

Read more

阿里通义Z-Image-Turbo WebUI深度解析:从快速部署到二次开发

阿里通义Z-Image-Turbo WebUI深度解析:从快速部署到二次开发 阿里通义Z-Image-Turbo WebUI 是阿里云推出的高性能图像生成工具,基于先进的深度学习技术,能够快速生成高质量的图像内容。对于开发者而言,想要基于该工具进行二次开发,首先需要搭建一个基础环境来评估模型效果和接口设计。本文将详细介绍如何快速部署阿里通义Z-Image-Turbo WebUI,并解析其核心功能,为后续的二次开发打下坚实基础。 这类任务通常需要 GPU 环境,目前 ZEEKLOG 算力平台提供了包含该镜像的预置环境,可快速部署验证。通过本文的指导,你将能够轻松搭建开发环境,快速上手阿里通义Z-Image-Turbo WebUI,并了解其二次开发的可能性。 阿里通义Z-Image-Turbo WebUI 简介 阿里通义Z-Image-Turbo WebUI 是一个基于深度学习的图像生成工具,具有以下核心特点: * 高性能图像生成:支持快速生成高质量的图像内容,适用于多种应用场景。 * 用户友好界面:提供直观的 WebUI,方便用户操作和调试。 * 丰富的 API 接口:

webdriver_manager终极指南:彻底解决Selenium浏览器驱动管理难题

webdriver_manager终极指南:彻底解决Selenium浏览器驱动管理难题 【免费下载链接】webdriver_manager 项目地址: https://gitcode.com/gh_mirrors/we/webdriver_manager 在Selenium自动化测试实践中,浏览器驱动管理往往是开发者面临的首要技术障碍。据统计,超过60%的Selenium新手错误都源于驱动版本不匹配或配置不当。webdriver_manager作为专业的Python测试工具,通过智能化的驱动管理机制,让开发者彻底告别手动下载、版本匹配和路径配置的繁琐流程。 驱动管理痛点深度解析 传统Selenium测试环境配置存在三大核心痛点: 版本兼容性问题:浏览器频繁更新导致驱动版本不匹配,测试脚本频繁失效 环境配置复杂性:不同操作系统下驱动路径配置差异大,团队协作困难 维护成本高昂:手动管理多个浏览器驱动版本,耗费大量开发时间 核心功能架构解析 webdriver_manager采用模块化设计,通过四大核心组件实现智能驱动管理: 自动化版本检测机制 系统自动识别本地安装

计算机毕业设计springboot农产品运输服务平台 基于Spring Boot的生鲜农产品智慧物流调度系统 Java Web驱动的农业供应链运输协同管理平台

计算机毕业设计springboot农产品运输服务平台 基于Spring Boot的生鲜农产品智慧物流调度系统 Java Web驱动的农业供应链运输协同管理平台

计算机毕业设计springboot农产品运输服务平台1v2fih47(配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。 我国作为农业大国,农产品流通效率直接关系到农民增收与民生保障。然而传统农产品运输长期面临信息不对称、车货匹配难、运输过程不可控等痛点,导致生鲜农产品损耗率高达20%以上,"卖难买贵"现象普遍存在。随着乡村振兴战略深入推进,农业数字化转型已成为破解物流瓶颈的关键路径。特别是在冷链物流需求激增、农村电商蓬勃发展的背景下,构建一个连接农户、货主与运力方的数字化服务平台,实现运输需求精准对接、物流全程可视化管理,对于降低流通成本、保障农产品品质、提升农业供应链韧性具有重要的现实意义。运用Spring Boot微服务架构开发此类平台,既能满足高并发场景下的稳定运行需求,又能通过前后端分离技术实现良好的用户体验,为农业现代物流体系建设提供可行的技术方案。 本系统采用Java语言与Spring Boot框架搭建后端服务,结合Vue前端技术、MySQL数据库与B/S架构,实现了一套覆盖农产品运输全链条的服务平

【LLM】Ollama:本地大模型 WebAPI 调用实战指南

1. 为什么选择Ollama部署本地大模型 最近两年大模型技术发展迅猛,但很多开发者面临一个现实问题:公有云API调用不仅费用高昂,还存在数据隐私风险。Ollama的出现完美解决了这个痛点,它就像是你本地的模型管家,可以一键部署各种开源大模型。我去年在开发智能客服系统时就深受其益,既避免了敏感客户数据外泄,又省下了大笔API调用费用。 与传统方案相比,Ollama有三大优势:首先是安装简单,用Docker一条命令就能跑起来;其次是模型丰富,支持Llama、Mistral等主流开源模型;最重要的是API标准化,完全兼容OpenAI的接口规范。实测在16GB内存的MacBook Pro上运行7B参数的模型,响应速度可以控制在2秒以内,完全能满足大多数应用场景。 2. 五分钟快速搭建Ollama环境 2.1 准备工作就像搭积木 在开始之前,我们需要准备两个基础组件:Docker和Python环境。这里有个小技巧分享——建议使用Docker Desktop的WSL2后端(Windows用户),性能比传统虚拟机模式提升30%以上。安装完成后,记得执行以下命令验证版本: docker