VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

前言:为何你的 Copilot 需要一次“魔改”?

本文旨在帮助所有希望突破 VSCode Copilot 模型限制、追求更高代码效率和性价比的开发者。如果你也曾面临以下困境,那么这篇文章就是为你量身打造的:

  • Copilot 官方模型不够用:想尝试最新、最强的国产模型(如智谱 GLM、文心一言、Kimi)却无从下手。
  • API 订阅成本高:官方或其他国外模型的订阅费和按量计费(通常以美元结算)让个人开发者望而却步。
  • 替代品体验有瑕疵:其他辅助插件在某些场景下不如原生的 Copilot 轻便、流畅。

本文将提供一个终极解决方案:通过一个 VSCode 插件,无缝接入任何支持 OpenAI 兼容接口的大模型。我将以当前备受瞩目的国产模型智谱 GLM-5.1 为例,手把手带你完成从申请 API Key 到在 Copilot 中成功调用的全过程。

一、核心插件:OAI Compatible Provider for Copilot

要实现我们的目标,只需要一个关键插件:OAI Compatible Provider for Copilot

这个插件的核心作用,就是充当一个“翻译官”,让 Copilot 能够与所有使用标准 OpenAI API 格式的模型进行对话。安装它,是我们进行一切“魔改”的基础。

  1. 在 VSCode 扩展商店中搜索 OAI Compatible Provider for Copilot,也可以直接搜缩写oai

点击安装,如图。

在这里插入图片描述

二、把智谱 GLM-5.1 注入 Copilot

接下来,我们以接入智谱 GLM-5.1 为例,详细演示配置过程。此方法同样适用于 Kimi、DeepSeek、文心一言等其他所有提供 OpenAI 兼容接口的国产模型。

2.1:获取智谱 GLM-5.1 的 API Key

首先,我们需要从智谱 AI 官方获取访问模型的“钥匙”。

  1. 前往智谱AI官网获取GLM-5.1智谱AI开放平台
  2. 注意,国内限售时,可以考虑去智谱国际版官网,国际的GLM-5.1不限售Z.ai 智谱国际版官网
  3. 注册/登录并创建 API Key:登录后,按照下图指示,依次点击 右上角头像 -> API Keys -> + 创建新的 API Key

复制 Key:创建成功后,系统会生成一串 API Key 字符。立即点击复制按钮,等着下一步使用。

在这里插入图片描述

命名并保存:为你的 Key 输入一个好记的名称(例如 vscode-copilot-key,图示中我起名是ClaudeCode),点击确认。

在这里插入图片描述

2.2:在 VSCode 中配置插件

拿到了 API Key,我们回到 VSCode 进行配置。

  1. 找到插件配置:在搜索框中输入 oai, 然后打开它的设置界面。
  2. 在设置界面填写OpenAI兼容的API接口地址,注意包月计划的地址不要写错
    • 购买了智谱GLM Coding Plan包月计划的填写(如图),一定要填正确,否则会按tokens消耗量扣费: https://open.bigmodel.cn/api/coding/paas/v4
    • 没买智谱包月计划的,走传统的按tokens消耗扣费的,填写这个地址: https://open.bigmodel.cn/api/paas/v4
    • DeepSeek的地址是: https://api.deepseek.com/v1

Kimi的地址是: https://api.moonshot.cn/v1

在这里插入图片描述

2.3:在 Copilot 中启用并使用新模型

最后一步,让 Copilot 认识我们的新伙伴。

  1. 打开 Copilot Chat:点击 VSCode 顶边栏的 Copilot 图标。

在Copilot Ctrl + I 中切模型为GLM-5.1:如图,不说了,命令行唤起同样适用。

在这里插入图片描述

在Copilot Chat切换模型为GLM-5.1:模型列表中选择GLM-5.1,然后向他问好一下,如果能收到答复,就证明大功告成。

在这里插入图片描述

模型列表勾选你想用的即可:如果你的Base URL 和 API Key都配置正确,这里就会弹出模型列表,勾选后点击OK, 配置工作就基本完成了。

在这里插入图片描述

重新进入OAI Compatible选择模型:填入API Key后界面会消失,不要怕,重新 打开 Copilot Chat -> 打开 Manage Models -> 选择OAI Compatible(不要选小齿轮哦,小齿轮是配置API Key的)

在这里插入图片描述

填入上一步申请好的API Key:在弹出的设置窗口,输入你的API Key,然后回车确认。

在这里插入图片描述

选择 OAI Compatible 齿轮:在弹出的模型供应商中,可以看到 [OAI Compatible] 。点击它右侧的小齿轮,后续如果你要修改为其他模型的话也是点击这个小齿轮。

在这里插入图片描述

打开 Manage Models:把模型列表打开,然后点击列表最下面的 Manage Models 按钮。

在这里插入图片描述

至此,大功告成!如需要更加自定义和灵活的配置,就自行阅读OAI插件的使用说明吧,我这里就不细说了。这个插件也是开源的,可以直接去仓库学习用法:https://github.com/JohnnyZ93/oai-compatible-copilot

三、总结与拓展

通过本文的详细步骤,我们成功地将强大的智谱 GLM-5.1 模型集成到了 VSCode Copilot 中,实现了:

  • 突破生态限制:让 Copilot 不再局限于官方模型,拥抱更广阔的模型生态,尤其是优秀的国产大模型。
  • 极致性价比:通过直连官方 API 并按量付费,我们可以更经济、更灵活地使用 AI 辅助编程,告别昂贵的固定订阅。
  • 原生体验:所有操作都在 VSCode 和 Copilot 的原生框架内完成,无需适应新的工具和工作流。

这种方法具有极强的可拓展性。今天我们以 GLM-5.1 为例,明天你就可以用同样的方式接入 Kimi 的长文本能力,或是 DeepSeek 的代码专项能力。你只需要找到对应厂商的 Base URL 和申请 API Key,就能无限拓展你的 Copilot 工具箱。

希望这篇教程能为你打开一扇新的大门。如果你在配置过程中遇到任何问题,或是有更好的模型推荐,欢迎在评论区与我交流!

Read more

InfiniteYou核心技术深度解析:InfuseNet如何通过残差连接实现身份特征注入

InfiniteYou核心技术深度解析:InfuseNet如何通过残差连接实现身份特征注入 【免费下载链接】InfiniteYou🔥 [ICCV 2025 Highlight] InfiniteYou: Flexible Photo Recrafting While Preserving Your Identity 项目地址: https://gitcode.com/gh_mirrors/in/InfiniteYou InfiniteYou作为ICCV 2025 Highlight项目,凭借其创新的InfuseNet技术,实现了在灵活照片重制过程中精准保留人物身份特征的突破。本文将深入解析InfuseNet的核心机制,特别是残差连接在身份特征注入中的关键作用,带您了解这一技术如何在保持生成灵活性的同时,确保人物身份的一致性。 身份特征注入的挑战与解决方案 在AI图像生成领域,如何在改变人物姿态、场景或风格的同时保持核心身份特征,一直是一个关键挑战。传统方法往往面临身份丢失或过度同质化的问题,而InfuseNet通过独特的残差连接设计,成功解决了这一难题。 图1:Infus

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

背景 最近几年,AI 大模型火得一塌糊涂,特别是像 Llama 这样的开源模型,几乎成了每个技术团队都在讨论的热点。不过,这些"巨无霸"模型虽然能力超强,但对硬件的要求也高得吓人。这时候,华为的昇腾 NPU 就派上用场了。 说实话,昇腾 NPU 在 AI 计算这块确实有两把刷子。它专门为神经网络计算设计,不仅算力强劲,功耗控制得也不错,最关键的是灵活性很好,可以根据不同场景进行裁剪。所以,用它来跑大模型推理,理论上应该是个不错的选择。 为什么偏偏选了 Llama 来测试? 说到 Llama,这玩意儿现在可是开源界的"网红"。Meta 把它完全开源出来,社区生态搞得风生水起,各种优化和适配层出不穷。 其实选择 Llama 做测试,主要有这么几个考虑:

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

国产AIGC视频大模型正加速落地,RTX 4090凭借强大算力与大显存,成为本地部署腾讯混元、阿里通义万相等前沿视频生成模型的最佳选择,开启桌面级AI创作新时代。 目录 * 一、引言:国产AIGC视频大模型,桌面算力的新疆域 * 二、解锁潜能:RTX 4090与国产视频大模型的协同优势 * 三、项目解析:国产AIGC视频模型的创新之路 * 四、部署与环境搭建:国产模型的本地化实践 * 4.1 基础环境准备 * 4.2 模型部署流程:腾讯混元与阿里通义万相的本地化实战 * 4.3 ComfyUI 集成与优化 * 五、性能测试与对比:RTX 4090 的硬核实力 * 5.1 生成速度实测 (fps / s/frame) * 5.2 显存消耗与优化策略 * 六、实际应用场景:国产模型赋能创意工作流 * 七、

超越代码生成器:深度解析Triton-Copilot的人机协同设计哲学

超越代码生成器:深度解析Triton-Copilot的人机协同设计哲学 最近和几位负责底层性能优化的同事聊天,大家普遍有个共鸣:现在做高性能算子开发,感觉像是在走钢丝。一边是模型复杂度指数级增长带来的性能压力,另一边是手写CUDA或Triton代码那令人望而生畏的学习曲线和调试成本。资深专家忙得脚不沾地,而应用层开发者面对性能瓶颈往往束手无策,只能干等着排期。这种“专家依赖症”已经成为AI工程化落地的一个典型瓶颈。 正是在这种背景下,我第一次接触到Triton-Copilot。起初我以为它不过是又一个“智能代码补全”工具,但深入使用和剖析其架构后,我发现它的野心远不止于此。它不像ChatGPT那样,你问一句“写个矩阵乘法的Triton代码”,它给你一段可能能跑、但性能和正确性都无法保证的文本。Triton-Copilot构建的,是一套完整的、以验证和协作为核心的软件开发新范式。它试图回答一个根本性问题:如何将人类专家的领域知识(比如对硬件内存层次的理解、对数值稳定性的把握)与AI的代码生成和探索能力系统性地结合起来,而不仅仅是让AI“模仿”人类写代码? 这篇文章,我想从一个系统设