(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。
实现方法主要分为两种:

方案一:修改 Copilot Chat 源代码
在模型选择器中新增自定义提供商选项。

方案二:API 兼容适配
将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。

方法一(目前存在问题)

具体做法可参考修改Copilot chat插件增加自定义模型提供商


这里只说一下这个方法存在的问题:

  1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题
  2. 打包过程的npm install环节容易报错,需要多次调试
  3. 重要 当前打包后的Copilot chat插件在VSCode中无法显示模型选择器。虽然原作者指出这是由于插件要求的VSCode最低版本与实际版本不匹配所致,但即便修改了package.json中的vscode版本号,问题依然存在。

方法二(长期有效)

这一方法基于Github上的oai2ollama项目,它通过命令行工具启动一个服务,将OpenAI兼容API封装为Ollama兼容API。特别适合为不支持自定义OpenAI API但支持Ollama的编码代理(如VS Code中的GitHub Copilot)提供自定义模型支持。
这一项目的灵感来源于vscode-copilot GitHub讨论区中关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来Copilot版本可能直接支持第三方模型。
言归正传,具体操作步骤如下:

  1. 安装UV工具
    详细安装教程可参考:Windows系统UV安装及路径配置指南
    • 执行uv tool install进行永久安装
    • 创建批处理文件(双击运行):

配置VS Code
在Copilot模型选择器中选择"Ollama",稍候将显示第三方模型列表。

模型选择界面

运行转换程序
在命令行直接执行(无需本地下载项目):

uvx oai2ollama --api-key your_api_key --base-url provider_base_url 

如需长期使用,可选择以下任一方式:

@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"

常见问题:若未显示模型列表,请检查命令行报错信息。多数情况下,在base-url末尾添加/v1即可解决。

Read more

告别小白!吃透 MySQL 基本查询,看这一篇就够了

告别小白!吃透 MySQL 基本查询,看这一篇就够了

🔥海棠蚀omo:个人主页                 ❄️个人专栏:《初识数据结构》,《C++:从入门到实践》,《Linux:从零基础到实践》,《Linux网络:从不懂到不会》,《MySQL:新手入门指南》                 ✨追光的人,终会光芒万丈 博主简介: 目录 一.Create 1.1替换 二.Retrieve 2.1SELECT列 2.1.1全列查询 2.1.2指定列查询 2.1.3查询字段为表达式 2.1.4为查询结果指定别名 2.1.5结果去重 2.2WHERE条件 2.2.1英语不及格的同学及英语成绩 2.2.2语文成绩在[80,90]分的同学及语文成绩

By Ne0inhk
Claude Sonnet 4.6:大语言模型架构演进与前沿性能评估

Claude Sonnet 4.6:大语言模型架构演进与前沿性能评估

由于官网对中国的限制,国内无法使用官网,但是使用AIGCBAR镜像站可以注册使用Claude 4.6,且比使用官网要划算,无法律风险。 1 引言:大语言模型发展的新纪元 人工智能领域正在经历一场深刻的变革,大语言模型(Large Language Model, LLM)作为这场变革的核心驱动力,正在以前所未有的速度演进。从2022年ChatGPT的横空出世,到2025-2026年各大厂商推出的新一代模型,我们见证了人工智能从"能用"到"好用"再到"专业级"的跨越式发展。Anthropic公司于2026年2月发布的Claude Sonnet 4.6,作为Claude系列的最新成员,不仅代表了当前大语言模型技术的前沿水平,更在效率与性能的平衡上树立了新的标杆。 大语言模型的发展历程可以追溯到2017年Google提出的Transformer架构,该架构通过自注意力机制(Self-Attention Mechanism)彻底改变了自然语言处理的范式。Transformer的核心创新在于其并行化处理能力和长距离依赖建模能力,这为后续大规模预训练模型的诞生奠定了理论基础。从GPT系列的

By Ne0inhk
告别复杂 SQL 性能瓶颈!金仓智能下推技术的实战解析

告别复杂 SQL 性能瓶颈!金仓智能下推技术的实战解析

你是否遇到过这样的场景:一个看似逻辑清晰的复杂SQL,在测试环境小数据量下运行飞快,一到生产环境海量数据场景就直接“卡死”;查看执行计划后发现,子查询无差别扫描全量数据,生成了远超预期的巨大中间结果集,后续的JOIN、聚合、排序操作全部陷入性能泥潭,CPU跑满、内存溢出、IO居高不下成为常态? 如果你正被此类复杂SQL的性能问题困扰,那么金仓数据库(KingbaseES)的「基于代价的连接条件下推」技术,将成为破解这一难题的关键方案。它并非简单的规则化优化,而是融合语义安全判定与智能代价评估的现代化查询优化能力,更是应对企业级复杂业务查询的“性能终结者”,让开发者和DBA彻底告别SQL性能调优的焦虑。 一、为什么你的复杂SQL会“爆内存”? 在金融、政务、零售、制造等企业级复杂业务系统中,为了保证业务逻辑的可读性和可维护性,开发人员通常会采用子查询/CTE封装复杂计算+外层JOIN过滤的SQL编写模式,将去重、聚合、窗口计算等操作封装在子查询中,外层仅做关联和最终的条件过滤。这种写法在业务层面无可厚非,却在执行层面埋下了严重的性能隐患。 1.1 典型复杂SQL的“性能陷阱”

By Ne0inhk

Clawdbot部署实操:解决‘gateway token missing’授权问题的完整步骤

Clawdbot部署实操:解决‘gateway token missing’授权问题的完整步骤 1. Clawdbot是什么:一个开箱即用的AI代理网关平台 Clawdbot 是一个统一的 AI 代理网关与管理平台,它的核心目标很实在——让开发者不用反复折腾模型对接、权限配置和会话管理,就能快速把自主AI代理跑起来、管起来、用起来。 它不是另一个大模型推理框架,而是一个“中间层操作系统”:一边连着本地或远程的AI模型(比如你熟悉的 qwen3:32b),另一边面向终端用户,提供聊天界面、会话追踪、模型路由、插件扩展等一整套能力。你可以把它理解成AI世界的“路由器+控制台+仪表盘”三合一工具。 特别适合这些场景: * 你想在内网或私有GPU上部署多个模型,但不想每个都单独写API服务; * 你需要给非技术人员(比如产品、运营)提供一个能直接对话的界面,而不是让他们敲curl命令; * 你正在做AI Agent原型验证,需要快速切换模型、调试提示词、查看token消耗; * 你希望所有AI调用都有统一日志、

By Ne0inhk