(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。
实现方法主要分为两种:

方案一:修改 Copilot Chat 源代码
在模型选择器中新增自定义提供商选项。

方案二:API 兼容适配
将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。

方法一(目前存在问题)

具体做法可参考修改Copilot chat插件增加自定义模型提供商


这里只说一下这个方法存在的问题:

  1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题
  2. 打包过程的npm install环节容易报错,需要多次调试
  3. 重要 当前打包后的Copilot chat插件在VSCode中无法显示模型选择器。虽然原作者指出这是由于插件要求的VSCode最低版本与实际版本不匹配所致,但即便修改了package.json中的vscode版本号,问题依然存在。

方法二(长期有效)

这一方法基于Github上的oai2ollama项目,它通过命令行工具启动一个服务,将OpenAI兼容API封装为Ollama兼容API。特别适合为不支持自定义OpenAI API但支持Ollama的编码代理(如VS Code中的GitHub Copilot)提供自定义模型支持。
这一项目的灵感来源于vscode-copilot GitHub讨论区中关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来Copilot版本可能直接支持第三方模型。
言归正传,具体操作步骤如下:

  1. 安装UV工具
    详细安装教程可参考:Windows系统UV安装及路径配置指南
    • 执行uv tool install进行永久安装
    • 创建批处理文件(双击运行):

配置VS Code
在Copilot模型选择器中选择"Ollama",稍候将显示第三方模型列表。

模型选择界面

运行转换程序
在命令行直接执行(无需本地下载项目):

uvx oai2ollama --api-key your_api_key --base-url provider_base_url 

如需长期使用,可选择以下任一方式:

@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"

常见问题:若未显示模型列表,请检查命令行报错信息。多数情况下,在base-url末尾添加/v1即可解决。

Read more

Whisper 语音转文字免费软件下载安装使用教程!Whisper v0.2 从安装到使用全攻略

文章目录 * 一、先搞清楚:Whisper v0.2 这款语音转文字免费软件,到底好用在哪? * 二、Whisper v0.2 安装:3 步搞定,超简单 * 第 1 步:下载 Whisper 安装包 * 第 2 步:解压 Whisper 安装包 * 第 3 步:启动 Whisper + 设快捷方式 * 三、 Whisper 转文字:4 步出结果,新手也会 * 先做关键设置(避免出错!) * 正式转文字步骤 日常录了会议音频要转文字?手机录音想整理成文档?别再找付费工具了!试试Whisper v0.2 这款

Stable-Diffusion-v1-5-archive惊艳效果展示:35mm胶片风、赛博朋克、水墨国风案例

Stable-Diffusion-v1-5-archive惊艳效果展示:35mm胶片风、赛博朋克、水墨国风案例 很多人觉得Stable Diffusion 1.5已经是“老古董”了,跟不上现在各种新模型的花样。但说实话,经典之所以是经典,就是因为它足够稳定、可控,而且风格塑造能力极强。今天我就用 stable-diffusion-v1-5-archive 这个归档版本,给大家展示几个让我眼前一亮的生成效果,看看这个“老将”在特定风格下,能玩出什么新花样。 我们重点看三个风格:充满故事感的35mm胶片风、未来感爆棚的赛博朋克、以及意境深远的水墨国风。我会把生成这些图的提示词、参数设置都贴出来,你可以直接拿去用,看看能不能复现出同样惊艳的效果。 1. 核心能力与准备工作 在开始展示之前,我们先快速了解一下这个镜像能做什么,以及怎么快速上手。 1.1 它能做什么? Stable Diffusion v1.5 Archive 是一个开箱即用的经典文生图模型。它的核心就是:你输入一段文字描述,它给你生成一张对应的图片。别看它版本老,

OpenVINO Stable Diffusion完整指南:高效AI图像生成技术解析

OpenVINO Stable Diffusion完整指南:高效AI图像生成技术解析 【免费下载链接】stable_diffusion.openvino 项目地址: https://gitcode.com/gh_mirrors/st/stable_diffusion.openvino 还在为AI图像生成速度慢而困扰?想要在普通设备上也能快速创作高质量数字艺术?OpenVINO优化Stable Diffusion技术为您提供了完美的解决方案,让AI图像生成在边缘设备上实现质的飞跃! 技术挑战与核心解决方案 传统Stable Diffusion的痛点: * 依赖高端GPU硬件,部署成本高 * 推理速度慢,影响创作效率 * 内存占用大,限制应用场景 OpenVINO优化方案的优势: 通过Intel OpenVINO工具包对Stable Diffusion模型进行深度优化,实现: * 硬件兼容性扩展:支持从服务器到边缘设备的全面覆盖 * 性能显著提升:推理速度提升2-3倍,内存占用减少30% * 功能完整性保持:完全兼容原版模型的所有功能特性 OpenVINO优化

【2024最全Seedance 2.0解析】:基于17篇顶会论文+3家AIGC大厂内部技术文档的架构逆向推演

第一章:Seedance 2.0 双分支扩散变换器架构解析 Seedance 2.0 是面向高保真视频生成任务设计的新型双分支扩散变换器(Dual-Branch Diffusion Transformer),其核心创新在于解耦时空建模路径:一条分支专注帧内空间语义重建,另一条分支显式建模跨帧时序动态。该架构摒弃了传统单流Transformer对时空维度的粗粒度联合编码,转而通过协同门控机制实现分支间细粒度特征对齐。 双分支协同机制 空间分支采用分层ViT结构,以16×16 patch嵌入输入,逐级下采样并保留局部细节;时间分支则将同一空间位置在多帧中的token沿时间轴堆叠,经轻量级时序注意力模块处理。两分支输出通过Cross-Gating Fusion(CGF)模块融合,其门控权重由共享的上下文感知投影器动态生成。 关键组件实现 class CrossGatingFusion(nn.Module): def __init__(self, dim): super().__init__() self.proj_s = nn.Linear(dim, dim) # 空间分支门控投影