VSCode Copilot 终极魔改:以智谱 GLM-4.6 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-4.6 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-4.6 为例,一文搞定任意大模型接入

前言:为何你的 Copilot 需要一次“魔改”?

本文旨在帮助所有希望突破 VSCode Copilot 模型限制、追求更高代码效率和性价比的开发者。如果你也曾面临以下困境,那么这篇文章就是为你量身打造的:

  • Copilot 官方模型不够用:想尝试最新、最强的国产模型(如智谱 GLM、文心一言、Kimi)却无从下手。
  • API 订阅成本高:官方或其他国外模型的订阅费和按量计费(通常以美元结算)让个人开发者望而却步。
  • 替代品体验有瑕疵:其他辅助插件在某些场景下不如原生的 Copilot 轻便、流畅。

本文将提供一个终极解决方案:通过一个 VSCode 插件,无缝接入任何支持 OpenAI 兼容接口的大模型。我将以当前备受瞩目的国产模型智谱 GLM-4.6 为例,手把手带你完成从申请 API Key 到在 Copilot 中成功调用的全过程。

一、核心插件:OAI Compatible Provider for Copilot

要实现我们的目标,只需要一个关键插件:OAI Compatible Provider for Copilot

这个插件的核心作用,就是充当一个“翻译官”,让 Copilot 能够与所有使用标准 OpenAI API 格式的模型进行对话。安装它,是我们进行一切“魔改”的基础。

  1. 在 VSCode 扩展商店中搜索 OAI Compatible Provider for Copilot,也可以直接搜缩写oai

点击安装,如图。

在这里插入图片描述

二、把智谱 GLM-4.6 注入 Copilot

接下来,我们以接入智谱 GLM-4.6 为例,详细演示配置过程。此方法同样适用于 Kimi、DeepSeek、文心一言等其他所有提供 OpenAI 兼容接口的国产模型。

2.1:获取智谱 GLM-4.6 的 API Key

首先,我们需要从智谱 AI 官方获取访问模型的“钥匙”。

  1. 前往智谱AI官网智谱AI开放平台
  2. 注册/登录并创建 API Key:登录后,按照下图指示,依次点击 右上角头像 -> API Keys -> + 创建新的 API Key

复制 Key:创建成功后,系统会生成一串 API Key 字符。立即点击复制按钮,等着下一步使用。

在这里插入图片描述

命名并保存:为你的 Key 输入一个好记的名称(例如 vscode-copilot-key,图示中我起名是ClaudeCode),点击确认。

在这里插入图片描述

2.2:在 VSCode 中配置插件

拿到了 API Key,我们回到 VSCode 进行配置。

  1. 找到插件配置:在搜索框中输入 oai, 然后打开它的设置界面。
  2. 在设置界面填写OpenAI兼容的API接口地址,注意包月计划的地址不要写错
    • 购买了智谱GLM Coding Plan包月计划的填写(如图),一定要填正确,否则会按tokens消耗量扣费: https://open.bigmodel.cn/api/coding/paas/v4
    • 没买智谱包月计划的,走传统的按tokens消耗扣费的,填写这个地址: https://open.bigmodel.cn/api/paas/v4
    • DeepSeek的地址是: https://api.deepseek.com/v1

Kimi的地址是: https://api.moonshot.cn/v1

在这里插入图片描述

2.3:在 Copilot 中启用并使用新模型

最后一步,让 Copilot 认识我们的新伙伴。

  1. 打开 Copilot Chat:点击 VSCode 顶边栏的 Copilot 图标。

在Copilot Ctrl + I 中切模型为GLM-4.6:如图,不说了,命令行唤起同样适用。

在这里插入图片描述

在Copilot Chat切换模型为GLM-4.6:模型列表中选择GLM-4.6,然后向他问好一下,如果能收到答复,就证明大功告成。

在这里插入图片描述

模型列表勾选你想用的即可:如果你的Base URL 和 API Key都配置正确,这里就会弹出模型列表,勾选后点击OK, 配置工作就基本完成了。

在这里插入图片描述

重新进入OAI Compatible选择模型:填入API Key后界面会消失,不要怕,重新 打开 Copilot Chat -> 打开 Manage Models -> 选择OAI Compatible(不要选小齿轮哦,小齿轮是配置API Key的)

在这里插入图片描述

填入上一步申请好的API Key:在弹出的设置窗口,输入你的API Key,然后回车确认。

在这里插入图片描述

选择 OAI Compatible 齿轮:在弹出的模型供应商中,可以看到 [OAI Compatible] 。点击它右侧的小齿轮,后续如果你要修改为其他模型的话也是点击这个小齿轮。

在这里插入图片描述

打开 Manage Models:把模型列表打开,然后点击列表最下面的 Manage Models 按钮。

在这里插入图片描述

至此,大功告成!如需要更加自定义和灵活的配置,就自行阅读OAI插件的使用说明吧,我这里就不细说了。这个插件也是开源的,可以直接去仓库学习用法:https://github.com/JohnnyZ93/oai-compatible-copilot

三、总结与拓展

通过本文的详细步骤,我们成功地将强大的智谱 GLM-4.6 模型集成到了 VSCode Copilot 中,实现了:

  • 突破生态限制:让 Copilot 不再局限于官方模型,拥抱更广阔的模型生态,尤其是优秀的国产大模型。
  • 极致性价比:通过直连官方 API 并按量付费,我们可以更经济、更灵活地使用 AI 辅助编程,告别昂贵的固定订阅。
  • 原生体验:所有操作都在 VSCode 和 Copilot 的原生框架内完成,无需适应新的工具和工作流。

这种方法具有极强的可拓展性。今天我们以 GLM-4.6 为例,明天你就可以用同样的方式接入 Kimi 的长文本能力,或是 DeepSeek 的代码专项能力。你只需要找到对应厂商的 Base URL 和申请 API Key,就能无限拓展你的 Copilot 工具箱。

希望这篇教程能为你打开一扇新的大门。如果你在配置过程中遇到任何问题,或是有更好的模型推荐,欢迎在评论区与我交流!

Read more

AI绘画提示词生成器:从原理到实战的开发者指南

快速体验 在开始今天关于 AI绘画提示词生成器:从原理到实战的开发者指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI绘画提示词生成器:从原理到实战的开发者指南 背景与痛点 AI绘画的兴起让提示词(Prompt)成为连接创意与生成结果的关键纽带。然而在实际开发中,构建一个高效的提示词生成器常面临以下挑战: * 质量不稳定:生成的提示词可能过于笼统(如"

By Ne0inhk

找回 Edge 边栏中消失的 Copilot 图标

Edge 边栏的 Copilot 能根据网页内容增强回复,相当于内置了RAG,而且能不限次数使用GPT-5,非常方便。笔者有次打开 Edge 浏览器时发现边栏的Copilot图标消失了,探索了一些方法后终于找到解决方案,以下: 1. win+R 打开运行,输入 powershell 打开,复制以下正则表达式全文到powershell 命令窗口回车运行即可。命令窗口出现“✅ 已将 variations_country 设置为 US。已重新启动 Microsoft Edge”代表已经成功。 & { # 关闭所有 Edge 进程 Get-Process | Where-Object { $_.ProcessName -like "msedge*" } | Stop-Process -Force -ErrorAction SilentlyContinue Start-Sleep -Seconds 3 $localState

By Ne0inhk

告别 Copilot 时代:Cursor, Kiro 与 Google Antigravity 如何重新定义编程?

如果说 GitHub Copilot 开启了 AI 辅助编程的“副驾驶”时代,那么 2024-2025 年则是 AI Agent(智能体) 全面接管 IDE 的元年。 现在的开发者不再满足于简单的代码补全,我们需要的是能理解整个项目架构、能自主规划任务、甚至能像真人同事一样工作的“编程搭子”。 今天,我们盘点三款目前最受瞩目、处于风口浪尖的 AI 编程工具:Cursor、Kiro 以及 Google 的重磅新品 Antigravity。无论你是想提升效率,还是想尝鲜最前沿的 Agentic Workflow,这三款神器都不容错过。 1. Cursor:当下体验最好的 AI 代码编辑器 定位:目前最成熟、最流畅的 VS Code 替代者 Cursor

By Ne0inhk
【教程】如何在WSL2:Ubuntu上部署llama.cpp

【教程】如何在WSL2:Ubuntu上部署llama.cpp

WSL2:Ubuntu部署llama.cpp llama.cpp 是一个完全由 C 与 C++ 编写的轻量级推理框架,支持在 CPU 或 GPU 上高效运行 Meta 的 LLaMA 等大语言模型(LLM),设计上尽可能减少外部依赖,能够轻松在多种后端与平台上运行。 安装llama.cpp 下面我们采用本地编译的方法在设备上安装llama.cpp 克隆llama.cpp仓库 在wsl中打开终端: git clone https://github.com/ggml-org/llama.cpp cd llama.cpp 编译项目 编译项目前,先安装所需依赖项: sudoapt update sudoaptinstall -y build-essential cmake git#

By Ne0inhk