(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。
实现方法主要分为两种:

方案一:修改 Copilot Chat 源代码
在模型选择器中新增自定义提供商选项。

方案二:API 兼容适配
将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。

方法一(目前存在问题)

具体做法可参考修改Copilot chat插件增加自定义模型提供商


这里只说一下这个方法存在的问题:

  1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题
  2. 打包过程的npm install环节容易报错,需要多次调试
  3. 重要 当前打包后的Copilot chat插件在VSCode中无法显示模型选择器。虽然原作者指出这是由于插件要求的VSCode最低版本与实际版本不匹配所致,但即便修改了package.json中的vscode版本号,问题依然存在。

方法二(长期有效)

这一方法基于Github上的oai2ollama项目,它通过命令行工具启动一个服务,将OpenAI兼容API封装为Ollama兼容API。特别适合为不支持自定义OpenAI API但支持Ollama的编码代理(如VS Code中的GitHub Copilot)提供自定义模型支持。
这一项目的灵感来源于vscode-copilot GitHub讨论区中关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来Copilot版本可能直接支持第三方模型。
言归正传,具体操作步骤如下:

  1. 安装UV工具
    详细安装教程可参考:Windows系统UV安装及路径配置指南
    • 执行uv tool install进行永久安装
    • 创建批处理文件(双击运行):

配置VS Code
在Copilot模型选择器中选择"Ollama",稍候将显示第三方模型列表。

模型选择界面

运行转换程序
在命令行直接执行(无需本地下载项目):

uvx oai2ollama --api-key your_api_key --base-url provider_base_url 

如需长期使用,可选择以下任一方式:

@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"

常见问题:若未显示模型列表,请检查命令行报错信息。多数情况下,在base-url末尾添加/v1即可解决。

Read more

Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力

Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力 前言 在 OpenHarmony 鸿蒙应用全场景智能化的今天,AI 模型的获取与推理能力已成为应用的核心竞争力。如果你希望在鸿蒙应用中集成最前沿的文本生成、图像识别或语音转写功能,而又不想从零开始训练模型,那么 Hugging Face Hub 正是你不可或缺的“AI 军火库”。huggingface_client 作为一个专为 Dart/Flutter 设计的官方级客户端,提供了对 Hugging Face API 的深度封装。本文将指导你如何在鸿蒙端利用此库轻松调取全球顶尖的开源 AI 算力。 一、原原理分析 / 概念介绍 1.1

5分钟掌握whisper.cpp模型部署:从tiny到large-v3-turbo的实战指南

还在为本地语音识别项目选择合适的模型而烦恼吗?当需要在资源受限的环境中部署高效的语音转文字功能时,模型大小、速度和准确率的平衡往往让开发者头疼。本文通过实测对比whisper.cpp的8种主流模型,帮你快速找到最适合业务场景的解决方案。读完本文你将获得: 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp * 不同规模模型的磁盘占用与性能数据 * 实时/离线场景下的模型选择决策指南 * 一行命令完成模型部署的实操教程 模型规格全景图 whisper.cpp作为OpenAI Whisper模型的C/C++移植版,提供了从微型到大型的完整模型系列。这些模型经过优化可在CPU/GPU上高效运行,其核心差异体现在参数量与能力范围上。 官方模型规格速查表 模型名称磁盘占用支持语言典型应用场景tiny.en75 MiB仅英语嵌入式设备、实时语音控制base142 MiB多语言移动端App、语音助手small

终极免费语音转文本方案:OpenAI Whisper完整使用指南

终极免费语音转文本方案:OpenAI Whisper完整使用指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 想要将会议录音、学习讲座、播客内容快速转换为文字吗?OpenAI Whisper作为当前最先进的语音识别模型,能够高质量完成语音转文本任务,支持多语言识别,特别适合个人用户和中小团队使用。无需复杂的配置,只需简单几步即可享受专业的语音转录服务。 🎯 为什么选择Whisper语音转文本? 完全开源免费:Whisper模型完全开源,无需任何付费订阅,让每个人都能享受顶尖的语音识别技术。 多场景实用价值: * 📝 会议记录:自动生成完整会议纪要 * 🎓 学习笔记:将讲座内容转为可搜索文字 * 🎙️ 内容创作:为播客、视频生成准确字幕 * 📱 个人助手:语音备忘录自动文字化 🚀 5分钟快速上手 环境准备清单 * Python 3.8+ 环境 * FFmpeg音频处理工具 * 足够存储空间(基础模型约2.