github copilot接入第三方openai-compatible模型的方法

github copilot接入第三方openai-compatible模型的方法
审核有点严,我修改了很多敏感词汇,看原文可以去我个人博客:https://kashima19960.github.io/2025/07/28/github%20copilot%E6%8E%A5%E5%85%A5openai-compatible%E6%A8%A1%E5%9E%8B%E4%BB%A5%E5%8F%8A%E5%8E%BB%E9%99%A4%E5%AE%89%E5%85%A8%E9%99%90%E5%88%B6%E7%9A%84%E6%96%B9%E6%B3%95/

重要说明

本文具有时效性,请注意检查信息的正确性!

2025-10-12更新

现在官方明确copilot接入第三方openai-compatible模型是不会上线正式版,并且关闭了相关issue,想要体验这个功能只能使用vscode insider(一个前瞻的测试版),所以现在想要使用这个功能就只有两个选择

  1. 按照这篇文章的教程自行打包带有接入第三方模型功能的 copilot 的扩展
  2. 使用一个叫做 OAI Compatible Provider for Copilot的扩展,具体可以看这位博主的文章 :https://blog.ZEEKLOG.net/johnny0316/article/details/152900115?fromshare=blogdetail&sharetype=blogdetail&sharerId=152900115&sharerefer=PC&sharesource=Johnny0316&sharefrom=from_link

前言

copilot只支持那几家国外的模型提供商,除了openrouter以外我们都很难进行访问和支付,以及copilot系统提示词会拒绝回答非编程的问题,这点也让我很苦恼
所以为了完成我的这两个需求

  1. github copilot chat能接入自定义的openai-compatible模型
  2. 修改提示词

我去查找了相关的开源社区寻找解决方法,由于copilot chat前些日子开源了,所以这个第一个功能有开发者做了,但是微软还没有发布release版本,所以我们需要手动打包扩展,第二个功能可以通过修改系统提示词来实现。

具体步骤

  1. 先把仓库克隆下来,这里要注意,这个开发者把功能commit到了feat-ui分支,不要下载到了main分支
git clone -b feat-ui https://github.com/relic-yuexi/vscode-copilot-chat.git 
  1. 删除相关的提示词(可选)
    找到这个文件 src\extension\prompts\node\base\safetyRules.tsx,这个文件是安全规则提示词的底层文件,会被所有代码引用,所以我们只修改这个文件就行,
    如下图可以看到,这下我们知道为什么问非编程问题,会一直回答"Sorry, I can’t assist with that."了,把这个字符串替换成任意的词即可
在这里插入图片描述

然后再找到这个文件 src\extension\prompts\node\base\copilotIdentity.tsx ,这个提示词强制了无论你询问任何模型是谁,都会回答你 "github copilot ",我不喜欢这个,所以把他替换成空格或者其他的提示词

在这里插入图片描述
  1. 开始构建扩展,并打包成vsix文件

首先确保你已经安装了Node.js和npm,没安装就自己搜索安装一下,不需要啥专业知识的,然后在项目根目录下打开终端,执行以下命令:

安装依赖

2025-7-31更新:这里要有下载isual studio的C++环境,不然安装过程中的编译sqlite3会失败导致安装失败
npminstall

等待完成后,执行:

npx tsx .esbuild.ts 

安装打包工具vsce,这个工具用来将项目打包成VSIX格式

npminstall -g vsce 

最后执行:

vsce package 

就这四个命令

  1. npm install - 安装依赖
  2. npx tsx .esbuild.ts - 构建项目
  3. npm install -g vsce - 安装打包工具
  4. vsce package - 生成VSIX文件

执行完成后,你会在项目根目录看到一个 .vsix 文件,这就是可以安装的VS Code扩展包。

安装扩展:

  • 在VS Code中按 Ctrl+Shift+P
  • 输入 “Extensions: Install from VSIX”
  • 选择生成的 .vsix 文件

另一种方法就是打开vscode的插件市场,点击右上角的三个点,最后一个选项就是了

在这里插入图片描述
2025-7-30更新:评论区有人问怎么添加模型,之前没写,我以为大家都会,下面补充一下

添加openai-compatible模型的方法

  1. 先打开模型选择器,点击manage models
在这里插入图片描述
  1. 点击红框那一栏,这一栏在你成功按照上述方法构建了扩展后就会有了,官方的copilot目前还没有,你找不到就要检查一下自己有没有安装好扩展了
在这里插入图片描述
  1. 理论上,只要是能兼容 openai 格式的模型供应商都能添加,这个具体你要看对应的模型供应商,国内基本上知名的模型都是兼容openai格式的,这里我以deepseek为例,由于我这里已经添加过了(看上图就知道了),这里是取名(名字任意),然后回车
在这里插入图片描述

输入base_url,这里找对应的文档自己查,回车

在这里插入图片描述

右下角会提示成功,

在这里插入图片描述

再次打开模型选择器就能看到了

在这里插入图片描述

点进去,输入apikey,这里你要输入正确的apikey,不然获取model会失败,我这里由于已经添加过deepseek的模型了,所以图片中的 apikey 是我乱填的😋

在这里插入图片描述

把模型id输入一下,具体id看对应的官方文档

在这里插入图片描述

测试是否添加成功由于上述的步骤去除了安全规则和自我介绍,所以可以直接向模型问一些非编程问题,可以看到下图,如果问原版的copilot,他是不会回答你跟模型有关的任何信息的,只会回答“ 我是github copilot”

在这里插入图片描述

已经打包好的扩展

如果你连上述的步骤都没办法完成的话,那就用我打包好的扩展吧

https://gitee.com/oops-holly/vscode-github-copilot-extension/releases/download/1.0.0/copilot-chat-0.30.0.vsix

Read more

Stable Diffusion v2-1-base模型使用指南:从新手到高手的文本到图像生成技巧

想要轻松玩转Stable Diffusion v2-1-base模型,实现高质量的文本到图像生成效果吗?这份指南将带你从基础入门到进阶应用,用最接地气的方式解锁AI绘画的魅力。 【免费下载链接】stable-diffusion-2-1-base 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/stable-diffusion-2-1-base 🎯 新手常见疑惑解答 模型能帮我做什么? Stable Diffusion v2-1-base模型就像你的专属AI画师,只要输入文字描述,就能生成对应的图像。无论是: * 🎨 创意设计:为你的作品集添加独特视觉元素 * 📚 教学辅助:制作生动有趣的课件配图 * 🚀 灵感激发:快速将脑海中的想法可视化 遇到报错怎么办? 初次使用时可能会遇到这些问题: # 依赖包缺失的解决方案 pip install diffusers transformers accelerate scipy safetensors 如果提示GPU内存不足,可以试试这个技巧: # 启用内存优化

By Ne0inhk

Whisper-large-v3详细步骤:云端部署一看就会

Whisper-large-v3详细步骤:云端部署一看就会 你是不是也和我当年一样,刚读研时被导师安排跑通一个语音识别实验,点开Whisper的GitHub页面却一脸懵?各种依赖、环境冲突、CUDA版本不匹配……光是安装就花了三天,还没开始训练模型人已经快崩溃了。别慌!现在完全不用这么折腾了。 今天我要分享的是——如何用预置镜像在云端GPU上,2小时内从零部署Whisper-large-v3并完成语音转文字测试。特别适合像你我这样的研究生小白,不需要懂太多底层细节,只要跟着一步步操作,就能把任务搞定交差。核心思路就是:跳过所有环境配置坑,直接用ZEEKLOG星图平台提供的Whisper专用镜像,一键启动+即拿即用。 这个镜像已经帮你装好了PyTorch、CUDA、HuggingFace Transformers、ffmpeg等所有必要组件,甚至连whisper库都配好了最新版。你只需要上传音频文件,运行几行命令,就能看到结果输出。整个过程就像“打开App→导入视频→点击转换”一样简单。而且支持对外暴露服务接口,后续还能扩展成Web应用或集成到其他系统里。下面我就手把手带你走完全流

By Ne0inhk
【GitHub Copilot】Figma MCP还原设计稿生成前端代码

【GitHub Copilot】Figma MCP还原设计稿生成前端代码

这里写自定义目录标题 * Step1:让AI给你配置MCP * Step2:替换成自己的Figma密钥 * Step3:如何使用 Cursor+Figma MCP的教程已经很多了,由于我所在的公司采购的是GitHub Copilot,我研究了一下直接在vscode里利用GitHub Copilot接入Figma MCP进行设计稿还原代码,大获成功,这里分享我的步骤,希望能帮到你。 Step1:让AI给你配置MCP 在vscode中打开你的项目(我的例子是一个微信小程序),呼出github copilot对话框,模式选择Agent,模型建议Claude 3.7 Sonnet,提问: https://github.com/GLips/Figma-Context-MCP 如何配置能让你在vscode里使用这个mcp 之后跟着提示狂点下一步即可完成配置,如果有什么需要装的vscode插件它会自动帮你装,甚至自动生成了配置说明文档。 由于不能保证AI每次生成的答案都一致,这里附上我的运行结果作为参考,可以看到它在项目文件夹最外层建了一个.vscode文件夹,在sett

By Ne0inhk

AIGC 应用工程师、人工智能训练工程师、人工智能算法工程师、人工智能标注工程师、AI智能体应用工程师、生成式人工智能应用工程师

(一)报考条件:年满18周岁 (二)报名及考试流程  1.  学生填写报名表:姓名、性别、身份证号、电话号码、所报证书名称、级别,务必保证信息正确。 2. 使用电子照片要求: 背景颜色:蓝色、白色; 3. 拿证周期:3-4个月 人工智能应用工程师(高级)课程体系解读 课程体系围绕人工智能应用工程师(高级) 职业技能培养,分 6 大阶段,覆盖环境搭建、数据处理、核心算法、实战应用、效果测试与职业考核全流程,是从基础到高阶的完整 AI 应用开发学习路径。 一、阶段核心内容与能力目标 1. 人工智能环境管理 * 核心课程:环境与存储系统配置 * 知识模块:Python/Spark 环境搭建、虚拟机与

By Ne0inhk