VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景

VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!!
(Github Copilot Chat 中使用OpenAI兼容的自定义模型。)

在这里插入图片描述

🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能:
“实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。”

在这里插入图片描述

🤗 官方解决方案:安装VSCode扩展支持

你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot

在这里插入图片描述

通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek V3.2、GLM 4.6 等。

✨ 特色功能

  • 支持几乎所有与 OpenAI 兼容的供应商,例如 ModelScope、SiliconFlow、DeepSeek…
  • 支持视觉模型。
  • 为聊天请求提供额外的配置选项。
  • 支持同时配置来自多个供应商的模型,自动管理 API 密钥而无需反复切换。
  • 支持为同一模型 ID 定义多种配置(例如为 GLM-4.6 启用/禁用思考功能)。Supports almost all

支持控制模型在聊天界面中显示思考与推理内容。

thinkingPartDemo

⚡ 快速开始

  1. 安装“OAI Compatible Provider for Copilot”扩展。
  2. 打开 VS Code 设置,配置 oaicopilot.baseUrloaicopilot.models
  3. 打开 Github Copilot聊天界面。
  4. 点击模型选择器,选择“管理模型…”。
  5. 选择“OAI Compatible”提供商。
  6. 输入您的 API 密钥 —— 它将被本地保存。
  7. 选择您希望添加到模型选择器中的模型。

Settings Example

"oaicopilot.baseUrl":"https://api-inference.modelscope.cn/v1","oaicopilot.models":[{"id":"Qwen/Qwen3-Coder-480B-A35B-Instruct","owned_by":"modelscope","context_length":256000,"max_tokens":8192,"temperature":0,"top_p":1}]

Read more

【超详细】Python FastAPI 入门:写给新手的“保姆级”教程

【超详细】Python FastAPI 入门:写给新手的“保姆级”教程(2025–2026 最新版) 这篇教程的目标是: 零基础 → 能独立写出生产级别的 RESTful API 预计认真跟着做完前 80%,你大概需要 3–10 天(每天 2–4 小时)。 目录(建议按顺序阅读) 1. 为什么选择 FastAPI(而不是 Flask / Django) 2. 环境准备(最稳的几种方式) 3. 第一个 FastAPI 程序(Hello World) 4. 核心概念速览(5 分钟建立大局观) 5. 路径参数、查询参数、请求体(

By Ne0inhk

VS Code 编译调试 C++ 项目完全指南(按编译器分类)

本文将系统讲解如何在 VS Code 中针对 MSVC(Visual Studio 编译器) 和 GCC/MinGW 两种主流编译器,配置 tasks.json(编译任务)、launch.json(调试配置)、c_cpp_properties.json(智能提示配置),覆盖单文件 / 多文件编译、库链接、输出路径指定等核心场景。 前置准备 1. 基础工具安装 * VS Code:从官网下载安装,安装「C/C++ 微软官方插件」(扩展栏搜索 C/C++)。 * 编译器安装: * MSVC:安装 Visual Studio(勾选「使用 C++ 的桌面开发」

By Ne0inhk

安卓系统层开发之C++与JNI实战

安卓系统层开发之C++与JNI实战 在移动AI应用日益普及的今天,如何将复杂的深度学习模型高效地部署到资源受限的安卓设备上,已成为开发者面临的核心挑战之一。尤其是像文本生成视频(Text-to-Video)这类高算力需求的任务,传统做法往往依赖云端推理,但延迟和网络成本限制了其在实时交互场景中的应用。而随着轻量化模型架构的发展,端侧推理正成为可能。 本文将以 Wan2.2-T2V-5B 这一基于50亿参数的轻量级扩散模型为例,深入探讨如何通过 C++ 与 JNI 技术实现高性能、低延迟的安卓本地视频生成系统。我们将从底层集成机制讲起,贯穿环境配置、内存管理、线程安全到实际应用场景,帮助你构建一个真正可落地的移动端AI引擎。 Wan2.2-T2V-5B 模型架构解析 Wan2.2-T2V-5B 是专为移动端优化的实时文本生成视频模型,采用精简版扩散架构,在保证画面连贯性和动态逻辑合理性的前提下,大幅压缩参数规模至50亿级别。相比动辄百亿参数的大模型,它能在 RTX 3060 级别的消费级 GPU 上实现每3秒短视频约4~5秒内完成生成,输出分辨率达480P,非常适合嵌入式或移动

By Ne0inhk