VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

前言:为何你的 Copilot 需要一次“魔改”?

本文旨在帮助所有希望突破 VSCode Copilot 模型限制、追求更高代码效率和性价比的开发者。如果你也曾面临以下困境,那么这篇文章就是为你量身打造的:

  • Copilot 官方模型不够用:想尝试最新、最强的国产模型(如智谱 GLM、文心一言、Kimi)却无从下手。
  • API 订阅成本高:官方或其他国外模型的订阅费和按量计费(通常以美元结算)让个人开发者望而却步。
  • 替代品体验有瑕疵:其他辅助插件在某些场景下不如原生的 Copilot 轻便、流畅。

本文将提供一个终极解决方案:通过一个 VSCode 插件,无缝接入任何支持 OpenAI 兼容接口的大模型。我将以当前备受瞩目的国产模型智谱 GLM-5.1 为例,手把手带你完成从申请 API Key 到在 Copilot 中成功调用的全过程。

一、核心插件:OAI Compatible Provider for Copilot

要实现我们的目标,只需要一个关键插件:OAI Compatible Provider for Copilot

这个插件的核心作用,就是充当一个“翻译官”,让 Copilot 能够与所有使用标准 OpenAI API 格式的模型进行对话。安装它,是我们进行一切“魔改”的基础。

  1. 在 VSCode 扩展商店中搜索 OAI Compatible Provider for Copilot,也可以直接搜缩写oai

点击安装,如图。

在这里插入图片描述

二、把智谱 GLM-5.1 注入 Copilot

接下来,我们以接入智谱 GLM-5.1 为例,详细演示配置过程。此方法同样适用于 Kimi、DeepSeek、文心一言等其他所有提供 OpenAI 兼容接口的国产模型。

2.1:获取智谱 GLM-5.1 的 API Key

首先,我们需要从智谱 AI 官方获取访问模型的“钥匙”。

  1. 前往智谱AI官网获取GLM-5.1智谱AI开放平台
  2. 注意,国内限售时,可以考虑去智谱国际版官网,国际的GLM-5.1不限售Z.ai 智谱国际版官网
  3. 注册/登录并创建 API Key:登录后,按照下图指示,依次点击 右上角头像 -> API Keys -> + 创建新的 API Key

复制 Key:创建成功后,系统会生成一串 API Key 字符。立即点击复制按钮,等着下一步使用。

在这里插入图片描述

命名并保存:为你的 Key 输入一个好记的名称(例如 vscode-copilot-key,图示中我起名是ClaudeCode),点击确认。

在这里插入图片描述

2.2:在 VSCode 中配置插件

拿到了 API Key,我们回到 VSCode 进行配置。

  1. 找到插件配置:在搜索框中输入 oai, 然后打开它的设置界面。
  2. 在设置界面填写OpenAI兼容的API接口地址,注意包月计划的地址不要写错
    • 购买了智谱GLM Coding Plan包月计划的填写(如图),一定要填正确,否则会按tokens消耗量扣费: https://open.bigmodel.cn/api/coding/paas/v4
    • 没买智谱包月计划的,走传统的按tokens消耗扣费的,填写这个地址: https://open.bigmodel.cn/api/paas/v4
    • DeepSeek的地址是: https://api.deepseek.com/v1

Kimi的地址是: https://api.moonshot.cn/v1

在这里插入图片描述

2.3:在 Copilot 中启用并使用新模型

最后一步,让 Copilot 认识我们的新伙伴。

  1. 打开 Copilot Chat:点击 VSCode 顶边栏的 Copilot 图标。

在Copilot Ctrl + I 中切模型为GLM-5.1:如图,不说了,命令行唤起同样适用。

在这里插入图片描述

在Copilot Chat切换模型为GLM-5.1:模型列表中选择GLM-5.1,然后向他问好一下,如果能收到答复,就证明大功告成。

在这里插入图片描述

模型列表勾选你想用的即可:如果你的Base URL 和 API Key都配置正确,这里就会弹出模型列表,勾选后点击OK, 配置工作就基本完成了。

在这里插入图片描述

重新进入OAI Compatible选择模型:填入API Key后界面会消失,不要怕,重新 打开 Copilot Chat -> 打开 Manage Models -> 选择OAI Compatible(不要选小齿轮哦,小齿轮是配置API Key的)

在这里插入图片描述

填入上一步申请好的API Key:在弹出的设置窗口,输入你的API Key,然后回车确认。

在这里插入图片描述

选择 OAI Compatible 齿轮:在弹出的模型供应商中,可以看到 [OAI Compatible] 。点击它右侧的小齿轮,后续如果你要修改为其他模型的话也是点击这个小齿轮。

在这里插入图片描述

打开 Manage Models:把模型列表打开,然后点击列表最下面的 Manage Models 按钮。

在这里插入图片描述

至此,大功告成!如需要更加自定义和灵活的配置,就自行阅读OAI插件的使用说明吧,我这里就不细说了。这个插件也是开源的,可以直接去仓库学习用法:https://github.com/JohnnyZ93/oai-compatible-copilot

三、总结与拓展

通过本文的详细步骤,我们成功地将强大的智谱 GLM-5.1 模型集成到了 VSCode Copilot 中,实现了:

  • 突破生态限制:让 Copilot 不再局限于官方模型,拥抱更广阔的模型生态,尤其是优秀的国产大模型。
  • 极致性价比:通过直连官方 API 并按量付费,我们可以更经济、更灵活地使用 AI 辅助编程,告别昂贵的固定订阅。
  • 原生体验:所有操作都在 VSCode 和 Copilot 的原生框架内完成,无需适应新的工具和工作流。

这种方法具有极强的可拓展性。今天我们以 GLM-5.1 为例,明天你就可以用同样的方式接入 Kimi 的长文本能力,或是 DeepSeek 的代码专项能力。你只需要找到对应厂商的 Base URL 和申请 API Key,就能无限拓展你的 Copilot 工具箱。

希望这篇教程能为你打开一扇新的大门。如果你在配置过程中遇到任何问题,或是有更好的模型推荐,欢迎在评论区与我交流!

Read more

OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 安装 + 接入飞书机器人完整教程 OpenClaw 曾用名:ClawdBot → MoltBot → OpenClaw(同一软件,勿混淆) 适用系统:Windows 10/11 最后更新:2026年3月 一、什么是 OpenClaw? OpenClaw 是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。 与普通 AI 聊天机器人的核心区别: * 真正的执行能力:不只回答问题,能实际操作你的电脑 * 24/7 全天候待命:睡觉时也能主动完成任务 * 完全开源免费:数据完全掌控在自己手中 * 支持国内平台:飞书、钉钉等均已支持接入 二、安装前准备:安装 Node.js 建议提前手动安装

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯冷启动数据的作用 * 冷启动数据设计 * 💯多阶段训练的作用 * 阶段 1:冷启动微调 * 阶段 2:推理导向强化学习(RL) * 阶段 3:拒绝采样与监督微调(SFT) * 阶段 4:多场景强化学习 * 💯代码示例:冷启动数据与多阶段训练的实现 * 1. 冷启动微调阶段 * 作用与应用: * 2. 推理导向的强化学习阶段 * 作用与应用: * 3. 拒绝采样与监督微调阶段 * 作用与应用: * 4. 多场景强化学习 * 作用与应用: * 总体流程 * DeepSeek 中的应用 * 💯总结 💯前言 在人工智能领域,深度学习模型的训练和优化往往需要大量的标注数据和计算资源。然而,面对复杂任务时,即使是最先进的技术和大量的训练数据也未必能够保证模型的最优表现。DeepSeek

一键换装魔法:基于ComfyUI工作流的Stable Diffusion服装替换指南

文章目录 * 一、Stable Diffusion与ComfyUI工作流基础 * 二、工作流获取:从社区到管理器一键部署 * 途径1:专业工作流社区(推荐新手) * 途径2:ComfyUI Manager(高阶扩展) * 三、换装工作流详解:以ComfyUI为例 * 工作流结构拆解 * 关键节点说明 * 模型准备清单 * 四、实战演示:一键换衣全流程 * 五、进阶应用:跨次元换装与3D生成 * 六、常见问题排查 * 结语:工作流的未来 Stable Diffusion作为当前最热门的开源文生图模型,在图像生成领域掀起了一场革命。其最新版本Stable Diffusion 3 Medium(2024年发布)包含20亿参数,在图像质量、复杂提示理解及资源效率方面实现显著突破,能生成细节逼真、色彩鲜艳且光照自然的图像。而ComfyUI作为基于节点的工作流界面,通过可视化连接处理模块,为复杂任务(如图像重绘、视频生成、服装替换等)提供了灵活且可复现的解决方案。

llama.cpp 多环境部署指南:从CPU到CUDA/Metal的高效推理实践

1. 环境准备:从零开始的硬件与软件栈 如果你和我一样,对在本地运行大模型充满好奇,但又不想被复杂的框架和庞大的资源消耗吓退,那 llama.cpp 绝对是你该试试的第一个项目。简单来说,它是一个用 C/C++ 编写的轻量级推理引擎,能把 Hugging Face 上那些动辄几十GB的模型,“瘦身”成几GB的 GGUF 格式文件,然后在你的电脑上——无论是 Mac 的 Apple Silicon 芯片,还是 Windows/Linux 的 CPU 或 NVIDIA GPU——流畅地跑起来。我最初接触它,就是想在不升级显卡的老电脑上体验一下 7B 参数模型的对话能力,结果发现它不仅能在 CPU 上跑,还能充分利用 GPU 加速,效果远超预期。