github copilot接入第三方openai-compatible模型的方法

github copilot接入第三方openai-compatible模型的方法
审核有点严,我修改了很多敏感词汇,看原文可以去我个人博客:https://kashima19960.github.io/2025/07/28/github%20copilot%E6%8E%A5%E5%85%A5openai-compatible%E6%A8%A1%E5%9E%8B%E4%BB%A5%E5%8F%8A%E5%8E%BB%E9%99%A4%E5%AE%89%E5%85%A8%E9%99%90%E5%88%B6%E7%9A%84%E6%96%B9%E6%B3%95/

重要说明

本文具有时效性,请注意检查信息的正确性!

2025-10-12更新

现在官方明确copilot接入第三方openai-compatible模型是不会上线正式版,并且关闭了相关issue,想要体验这个功能只能使用vscode insider(一个前瞻的测试版),所以现在想要使用这个功能就只有两个选择

  1. 按照这篇文章的教程自行打包带有接入第三方模型功能的 copilot 的扩展
  2. 使用一个叫做 OAI Compatible Provider for Copilot的扩展,具体可以看这位博主的文章 :https://blog.ZEEKLOG.net/johnny0316/article/details/152900115?fromshare=blogdetail&sharetype=blogdetail&sharerId=152900115&sharerefer=PC&sharesource=Johnny0316&sharefrom=from_link

前言

copilot只支持那几家国外的模型提供商,除了openrouter以外我们都很难进行访问和支付,以及copilot系统提示词会拒绝回答非编程的问题,这点也让我很苦恼
所以为了完成我的这两个需求

  1. github copilot chat能接入自定义的openai-compatible模型
  2. 修改提示词

我去查找了相关的开源社区寻找解决方法,由于copilot chat前些日子开源了,所以这个第一个功能有开发者做了,但是微软还没有发布release版本,所以我们需要手动打包扩展,第二个功能可以通过修改系统提示词来实现。

具体步骤

  1. 先把仓库克隆下来,这里要注意,这个开发者把功能commit到了feat-ui分支,不要下载到了main分支
git clone -b feat-ui https://github.com/relic-yuexi/vscode-copilot-chat.git 
  1. 删除相关的提示词(可选)
    找到这个文件 src\extension\prompts\node\base\safetyRules.tsx,这个文件是安全规则提示词的底层文件,会被所有代码引用,所以我们只修改这个文件就行,
    如下图可以看到,这下我们知道为什么问非编程问题,会一直回答"Sorry, I can’t assist with that."了,把这个字符串替换成任意的词即可
在这里插入图片描述

然后再找到这个文件 src\extension\prompts\node\base\copilotIdentity.tsx ,这个提示词强制了无论你询问任何模型是谁,都会回答你 "github copilot ",我不喜欢这个,所以把他替换成空格或者其他的提示词

在这里插入图片描述
  1. 开始构建扩展,并打包成vsix文件

首先确保你已经安装了Node.js和npm,没安装就自己搜索安装一下,不需要啥专业知识的,然后在项目根目录下打开终端,执行以下命令:

安装依赖

2025-7-31更新:这里要有下载isual studio的C++环境,不然安装过程中的编译sqlite3会失败导致安装失败
npminstall

等待完成后,执行:

npx tsx .esbuild.ts 

安装打包工具vsce,这个工具用来将项目打包成VSIX格式

npminstall -g vsce 

最后执行:

vsce package 

就这四个命令

  1. npm install - 安装依赖
  2. npx tsx .esbuild.ts - 构建项目
  3. npm install -g vsce - 安装打包工具
  4. vsce package - 生成VSIX文件

执行完成后,你会在项目根目录看到一个 .vsix 文件,这就是可以安装的VS Code扩展包。

安装扩展:

  • 在VS Code中按 Ctrl+Shift+P
  • 输入 “Extensions: Install from VSIX”
  • 选择生成的 .vsix 文件

另一种方法就是打开vscode的插件市场,点击右上角的三个点,最后一个选项就是了

在这里插入图片描述
2025-7-30更新:评论区有人问怎么添加模型,之前没写,我以为大家都会,下面补充一下

添加openai-compatible模型的方法

  1. 先打开模型选择器,点击manage models
在这里插入图片描述
  1. 点击红框那一栏,这一栏在你成功按照上述方法构建了扩展后就会有了,官方的copilot目前还没有,你找不到就要检查一下自己有没有安装好扩展了
在这里插入图片描述
  1. 理论上,只要是能兼容 openai 格式的模型供应商都能添加,这个具体你要看对应的模型供应商,国内基本上知名的模型都是兼容openai格式的,这里我以deepseek为例,由于我这里已经添加过了(看上图就知道了),这里是取名(名字任意),然后回车
在这里插入图片描述

输入base_url,这里找对应的文档自己查,回车

在这里插入图片描述

右下角会提示成功,

在这里插入图片描述

再次打开模型选择器就能看到了

在这里插入图片描述

点进去,输入apikey,这里你要输入正确的apikey,不然获取model会失败,我这里由于已经添加过deepseek的模型了,所以图片中的 apikey 是我乱填的😋

在这里插入图片描述

把模型id输入一下,具体id看对应的官方文档

在这里插入图片描述

测试是否添加成功由于上述的步骤去除了安全规则和自我介绍,所以可以直接向模型问一些非编程问题,可以看到下图,如果问原版的copilot,他是不会回答你跟模型有关的任何信息的,只会回答“ 我是github copilot”

在这里插入图片描述

已经打包好的扩展

如果你连上述的步骤都没办法完成的话,那就用我打包好的扩展吧

https://gitee.com/oops-holly/vscode-github-copilot-extension/releases/download/1.0.0/copilot-chat-0.30.0.vsix

Read more

终极解决方案:为什么你的LLaMA模型总是加载失败?

终极解决方案:为什么你的LLaMA模型总是加载失败? 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 当你在深夜尝试运行那个期待已久的AI模型,却在终端看到"libllama.so: cannot open shared object file"的报错时,是否感到无比沮丧?别担心,这个问题比你想象的要普遍得多。本文将带你深入理解LLaMA.cpp动态链接库的加载机制,并提供一套立即可用的修复方案。 真实案例:从失败到成功的完整历程 小明最近在使用LLaMA.cpp部署本地AI助手时遇到了典型的动态链接库问题: ./main: error while loading shared

输入AI绘画的用户评价,自动分类统计(满意,一般,不满意),输出评价分析报告和改进建议。

输入AI绘画的用户评价,自动分类统计(满意,一般,不满意),输出评价分析报告和改进建议。

这是将数据科学、人工智能与商业决策结合起来。下面我将为您提供一个完整的、基于Python的“AI绘画用户评价分析”程序。   项目概览:ArtCriticScope - AI绘画用户评价分析器   核心功能:用户提供一个包含AI绘画作品用户评价的CSV或文本文件,程序会自动分析每一条评价的情绪倾向,将其分类为“满意”、“一般”或“不满意”,并生成一份包含统计数据和可操作改进建议的分析报告,帮助产品团队快速定位问题,优化产品。   1. 实际应用场景与痛点   * 目标用户:AI绘画产品(如Midjourney, Stable Diffusion, DALL-E等)的创始人、产品经理、社区运营、研发团队。 * 场景描述:您领导着一个AI绘画产品的开发。每天,您的Discord频道、应用商店评论区、Reddit板块都会涌入大量用户反馈。您想知道用户对新上线的“风格迁移”功能到底满不满意,但人工阅读成千上万条评论是不现实的。 * 传统痛点:    1. 信息过载:评价数据量巨大,人工分析效率极低,且容易遗漏关键信息。    2.

如何用50张图片打造专属AI绘画风格?lora-scripts实战教学

如何用50张图片打造专属AI绘画风格?LoRA-Scripts实战教学 在数字艺术与生成式AI交汇的今天,越来越多创作者开始思考一个问题:如何让AI真正“学会”我的画风? 不是简单地输入“水墨风”或“赛博朋克”,而是无论生成什么主题,画面中都自然流露出属于你个人笔触、色彩偏好和构图逻辑的独特气质。这正是当前AIGC领域最令人兴奋的方向之一——个性化模型微调。 而在这条路上,有一个技术组合正悄然改变游戏规则:LoRA + 自动化训练脚本。尤其是像 lora-scripts 这类工具的出现,使得仅凭50张图片、一块消费级显卡,就能在几小时内训练出高质量的专属风格模型。 要理解这一切是如何实现的,我们不妨从一个实际场景出发:假设你是一位插画师,积累了近百幅手绘作品,风格统一、辨识度高。你想把这些“视觉DNA”注入Stable Diffusion,让它成为你的AI分身。传统做法是全量微调整个模型,但这不仅需要数万张数据、多张高端GPU,还极容易过拟合。有没有更轻量、高效的方案? 答案就是 LoRA(Low-Rank Adaptation)。 它不改动原始大模型权重,而是在关键层(如

AI时代,我们该如何学Python?《AIGC高效编程:Python从入门到高手》

AI时代,我们该如何学Python?《AIGC高效编程:Python从入门到高手》

欢迎来到我的博客,代码的世界里,每一行都是一个故事 🎏:你只管努力,剩下的交给时间 🏠 :小破站 AI时代,我们该如何学Python?《AIGC高效编程:Python从入门到高手》 * 一、编程正在从"会写"变成"会用" * 二、AI不仅没有替代编程,反而让"会编程的人更强" * 三、一本真正契合"AI学习时代"的Python书出现了 * 四、书中项目体系非常"接地气" * 五、这本书适合谁? * 六、作者在书中的一句话,我非常认同 * 总结 * 如果你: * 感谢 过去很长一段时间里,我们学习编程的方式几乎是固定的:看视频、读文档、背语法、敲代码、