GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明

OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。

⚠️ Warning

登录 GitHub Copilot​ 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。

推荐直接用免费的free账号登录即可。

二、插件安装

在 VS Code 扩展市场安装并启用:

  • GitHub Copilot
  • GitHub Copilot Chat​
  • ​OAI Compatible Provider for Copilot​(johnny-zhao.oai-compatible-copilot​)

安装后:Developer: Reload Window​ 重载窗口一次。

确保已在 VS Code 中登录 GitHub,并且 Copilot 正常可用(不然你分不清是 Copilot 本身问题还是 provider 转发问题)。

三、配置示例

建议将配置放置在项目内的: .vscode/settings.json​

1、单模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

2、多模型示例

{ "oaicopilot.baseUrl": "https://api.soraharu.com/v1", "oaicopilot.delay": 0, "oaicopilot.readFileLines": 0, "oaicopilot.retry": { "enabled": true, "max_attempts": 3, "interval_ms": 1000, "status_codes": [] }, "oaicopilot.commitLanguage": "English", "oaicopilot.models": [ { "id": "__provider__soraharu", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "apiMode": "openai" }, { "id": "google/gemini-3-pro-preview", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-opus-4-5-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 4096, "vision": true, "apiMode": "openai", "temperature": 0 }, { "id": "anthropic/claude-sonnet-4-thinking", "owned_by": "soraharu", "baseUrl": "https://api.soraharu.com/v1", "context_length": 128000, "max_tokens": 8192, "vision": true, "apiMode": "openai", "temperature": 0 } ] } 

3、配置讲解

配置主要分为两块:

  • 顶层通用项(全局 API 地址、重试等)
  • ​oaicopilot.models​数组(定义可选的大模型)
顶层通用项
字段作用
​oaicopilot.baseUrl​通用 API 基地址,推荐全局只用一处。
​oaicopilot.delay​控制 Copilot 插件调用接口时的延迟,一般设 0(默认即可)
​oaicopilot.readFileLines​配合 Copilot 文件分段补全时用,设 0 即可
​oaicopilot.retry​Copilot Chat请求失败时的自动重试策略。
​oaicopilot.commitLanguage​Copilot建议生成commit的语言,通常填"English"即可
模型池 oaicopilot.models​
字段作用
​id​必须和/v1/models​能获得的模型id​一致(如"google/gemini-3-pro-preview"​)
​owned_by​一般填"provider名"即可,描述归属或来源
​baseUrl​建议只在顶层写一处,模型对象里不强制(写也可以,冲突时顶层优先)
​apiMode​绝大多数 Soraharu/OneAPI都填"openai",如果是anthropic/olllama/自定义才需变
​context_length​最大上下文长度(token数,依照模型能力填)
​max_tokens​每次回应的最大输出(token数,官方建议4096/8192之类)
​vision​支持多模态(如Gemini/Claude/Sonnet等具备图文能力才设true)
​temperature​控制AI输出随机性,越低回答越稳定,代码任务建议设为0

4、配置KEY

在 VSCode​ 页面进行操作:

  • ​Windows/Linux​ 环境:​​Ctrl+Shift+P​
  • ​Mac​ 环境:Cmd+Shift+P​

输入下面的命令,然后将KEY输入进去:

​Set OAl Compatible Multi-Provider Apikey​

四、模型使用

  1. 点击进入 Copilot 聊天框
  2. 点击模型选择框
  3. 点击模型管理(Manage Modules....)
  4. 选择 OAI Compatible​ 将左侧的隐藏眼睛关闭,这样我们自己设定的模型就会出现在选择框了。

Read more

3分钟变身AI绘画大师:SDXL Prompt Styler如何让你的提示词拥有魔法?

3分钟变身AI绘画大师:SDXL Prompt Styler如何让你的提示词拥有魔法? 【免费下载链接】sdxl_prompt_styler 项目地址: https://gitcode.com/gh_mirrors/sd/sdxl_prompt_styler 在AI绘画的世界里,你是否也曾遇到这样的困境:明明脑海中已经有了清晰的画面,却无法用文字精准传达给AI?🤔 别担心!今天要介绍的SDXL Prompt Styler就像一位神奇的翻译官,能把你的创意灵感转化为AI能理解的艺术语言,让你的作品瞬间提升几个level! 为什么你的AI绘画总差一口气? 想象一下,你想画一个"森林中的未来帐篷",直接输入提示词可能得到一张普通图片。但如果给提示词加上"奥斯卡级视觉效果、专业摄影、超细节刻画"这样的魔法前缀,结果会怎样?✨ SDXL Prompt Styler就是这样一个给提示词"化妆"的神器,

环保AI:如何用Llama Factory减少模型训练的碳足迹

环保AI:如何用Llama Factory减少模型训练的碳足迹 作为一名关注AI环境成本的研究员,你是否曾为大模型训练时飙升的电费账单和碳排放数据感到不安?本文将介绍如何通过Llama Factory这一开源工具,在不牺牲模型性能的前提下,显著降低训练过程中的能源消耗和碳足迹。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 为什么AI训练需要关注碳足迹 大型语言模型的训练过程往往伴随着惊人的能源消耗。以GPT-3为例,其训练过程估计产生了约552吨二氧化碳当量,相当于120辆汽车一年的排放量。这种环境成本主要来自: * 长时间运行的GPU/TPU集群 * 数据中心冷却系统能耗 * 重复实验和超参数搜索带来的冗余计算 Llama Factory通过一系列优化技术,可以帮助我们更高效地完成模型微调任务,从而减少这些不必要的能源浪费。 Llama Factory的环保特性解析 Llama Factory之所以能降低碳足迹,主要得益于以下几个核心功能: 1. 高效参数微调技术 2. 支持LoRA(低秩适应)和

七大AIGC测试工具横向评测:赋能软件测试的AI利器

七大AIGC测试工具横向评测:赋能软件测试的AI利器

在AI技术迅猛发展的2025年,AIGC(人工智能生成内容)工具已深度融入软件测试领域,显著提升测试效率和质量。本次评测聚焦七大主流工具:CodeWhisperer、GitHub Copilot、Testim、Selenium AI、Test.ai、Mabl和Functionize。评测基于实际测试场景(如Web/API测试、移动端兼容性验证),从核心功能、优缺点、适用性及成本四维度展开。目标是为测试工程师提供数据驱动的决策参考。评测方法包括工具实测(使用Python/Java测试脚本)、用户反馈分析(来源Stack Overflow和GitHub议题)及性能基准测试(错误检测率、执行速度)。以下是详细横向比较。 一、工具核心功能与评测结果 1. Amazon CodeWhisperer * 功能亮点:基于AWS的AI代码助手,专精于测试脚本生成。支持Python、Java等语言,能自动补全测试用例(如Selenium脚本),并集成漏洞扫描。实测中,生成100行测试代码的平均时间仅5秒,错误率低于5%。 * 优点:

Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI