(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。
实现方法主要分为两种:

方案一:修改 Copilot Chat 源代码
在模型选择器中新增自定义提供商选项。

方案二:API 兼容适配
将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。

方法一(目前存在问题)

具体做法可参考修改Copilot chat插件增加自定义模型提供商


这里只说一下这个方法存在的问题:

  1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题
  2. 打包过程的npm install环节容易报错,需要多次调试
  3. 重要 当前打包后的Copilot chat插件在VSCode中无法显示模型选择器。虽然原作者指出这是由于插件要求的VSCode最低版本与实际版本不匹配所致,但即便修改了package.json中的vscode版本号,问题依然存在。

方法二(长期有效)

这一方法基于Github上的oai2ollama项目,它通过命令行工具启动一个服务,将OpenAI兼容API封装为Ollama兼容API。特别适合为不支持自定义OpenAI API但支持Ollama的编码代理(如VS Code中的GitHub Copilot)提供自定义模型支持。
这一项目的灵感来源于vscode-copilot GitHub讨论区中关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来Copilot版本可能直接支持第三方模型。
言归正传,具体操作步骤如下:

  1. 安装UV工具
    详细安装教程可参考:Windows系统UV安装及路径配置指南
    • 执行uv tool install进行永久安装
    • 创建批处理文件(双击运行):

配置VS Code
在Copilot模型选择器中选择"Ollama",稍候将显示第三方模型列表。

模型选择界面

运行转换程序
在命令行直接执行(无需本地下载项目):

uvx oai2ollama --api-key your_api_key --base-url provider_base_url 

如需长期使用,可选择以下任一方式:

@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"

常见问题:若未显示模型列表,请检查命令行报错信息。多数情况下,在base-url末尾添加/v1即可解决。

Read more

C#初级开发者:AI预测重构需求下的创意守护与效率革命——老码农的幽默实战录

C#初级开发者:AI预测重构需求下的创意守护与效率革命——老码农的幽默实战录

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎点赞 + 收藏 + 关注哦 💕 📚 本文简介 本文探讨了C#初级开发者在AI时代的挑战,特别是AI分析代码库历史记录预测重构需求导致的主动性焦虑。文章分析了AI预测的工作原理,揭示了其在C#环境中的局限性,并通过代码示例和案例展示了开发者如何保持创意和主导权。作者提供了实战策略,如提升代码质量、利用AI工具辅助,以及培养业务洞察力,帮助开发者从焦虑转向高效行动。核心观点认为,AI虽能优化流程,但人类开发者的情境理解和创新思维仍是不可替代的竞争优势。 目录 * 📚 本文简介 * 📚 引言:当AI开始“读心”代码库,初级C#开发者的焦虑与转机 * 📚 一、AI分析代码库历史记录的真相:是“预言家”还是“复读机”? * 📘1、AI如何预测重构需求:基于模式匹配的“高级猜谜” * 📘2、C#代码库的特点与AI分析:强类型语言的“双刃剑”

当开发者遇上AI副驾驶:效率翻倍还是技能退化?

当开发者遇上AI副驾驶:效率翻倍还是技能退化?

在 AI 技术飞速渗透各行各业的当下,我们早已告别 “谈 AI 色变” 的观望阶段,迈入 “用 AI 提效” 的实战时代 💡。无论是代码编写时的智能辅助 💻、数据处理中的自动化流程 📊,还是行业场景里的精准解决方案 ,AI 正以润物细无声的方式,重构着我们的工作逻辑与行业生态 🌱。今天,我想结合自身实战经验,带你深入探索 AI 技术如何打破传统工作壁垒 🧱,让 AI 真正从 “概念” 变为 “实用工具” ,为你的工作与行业发展注入新动能 ✨。 文章目录 * 当开发者遇上AI副驾驶:效率翻倍还是技能退化? 🚀 * 一、AI副驾驶的崛起:从辅助到协作 💡 * 1.1 什么是AI副驾驶? * 1.2 技术基础:大模型如何理解代码? * 二、效率翻倍:AI如何加速开发流程 ⚡ * 2.1 减少样板代码(

原生多模态AI架构:统一训练与跨模态推理的系统实现与性能优化

原生多模态AI架构:统一训练与跨模态推理的系统实现与性能优化

人们眼中的天才之所以卓越非凡,并非天资超人一等而是付出了持续不断的努力。1万小时的锤炼是任何人从平凡变成超凡的必要条件。———— 马尔科姆·格拉德威尔 🌟 Hello,我是Xxtaoaooo! 🌈 “代码是逻辑的诗篇,架构是思想的交响” 在人工智能快速发展的今天,多模态AI已经从实验室走向了产业应用的前沿。从GPT-4V到Gemini,从CLIP到ImageBind,业界对多模态模型的探索正在经历从"拼接式融合"到"原生统一"的范式转变。传统的多模态方案往往采用预训练单模态模型后再进行跨模态对齐,这种方式虽然实现简单,但在模态间的深度语义理解、计算效率和推理一致性上存在明显瓶颈。本文将深入探讨原生多模态AI架构的核心设计理念,从统一编码空间的构建、跨模态注意力机制的实现,到分布式训练优化和推理加速策略,系统性地剖析如何构建一个高性能的原生多模态AI系统。 文章将首先解析原生多模态架构与传统方案的本质区别,阐述统一Token空间的设计哲学;随后深入到技术实现层面,详细讲解多模态Transformer的架构设计、跨模态注意力的计算优化、以及混合精度训练的工程实践;在性能优化部分