VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景

VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!!
(Github Copilot Chat 中使用OpenAI兼容的自定义模型。)

在这里插入图片描述

🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能:
“实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。”

在这里插入图片描述

🤗 官方解决方案:安装VSCode扩展支持

你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot

在这里插入图片描述

通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek V3.2、GLM 4.6 等。

✨ 特色功能

  • 支持几乎所有与 OpenAI 兼容的供应商,例如 ModelScope、SiliconFlow、DeepSeek…
  • 支持视觉模型。
  • 为聊天请求提供额外的配置选项。
  • 支持同时配置来自多个供应商的模型,自动管理 API 密钥而无需反复切换。
  • 支持为同一模型 ID 定义多种配置(例如为 GLM-4.6 启用/禁用思考功能)。Supports almost all

支持控制模型在聊天界面中显示思考与推理内容。

thinkingPartDemo

⚡ 快速开始

  1. 安装“OAI Compatible Provider for Copilot”扩展。
  2. 打开 VS Code 设置,配置 oaicopilot.baseUrloaicopilot.models
  3. 打开 Github Copilot聊天界面。
  4. 点击模型选择器,选择“管理模型…”。
  5. 选择“OAI Compatible”提供商。
  6. 输入您的 API 密钥 —— 它将被本地保存。
  7. 选择您希望添加到模型选择器中的模型。

Settings Example

"oaicopilot.baseUrl":"https://api-inference.modelscope.cn/v1","oaicopilot.models":[{"id":"Qwen/Qwen3-Coder-480B-A35B-Instruct","owned_by":"modelscope","context_length":256000,"max_tokens":8192,"temperature":0,"top_p":1}]

Read more

玩客云 边缘AI模型 本地搭建部署 llama.cpp qwen

玩客云 边缘AI模型 本地搭建部署 llama.cpp qwen

安装基础依赖 打开终端,输入: # 更新系统 sudo apt update && sudo apt upgrade -y # 安装编译工具 sudo apt install git build-essential cmake python3 python3-pip -y 安装系统包版本 numpy sudo apt update sudo apt install python3-numpy -y 这一步保证你可以编译 llama.cpp 和运行 Python 脚本。  下载并编译 llama.cpp install_llama.sh #!/bin/bash set -e # 有错误直接退出,

By Ne0inhk
AI论文写作内幕揭秘:9款神器助你一键搞定知网维普查重,不留AIGC痕迹

AI论文写作内幕揭秘:9款神器助你一键搞定知网维普查重,不留AIGC痕迹

开头:90%的学生不知道的论文“潜规则”,正在被AI改写 你是否经历过: 熬夜改稿3天,导师一句“逻辑混乱”打回重写? 知网查重率28%,降重改到怀疑人生? 用ChatGPT写的段落,被维普的“AIGC检测”标红警告? 90%的科研人都在踩的坑,其实早有“黑科技”能一键解决——但这些工具和方法,导师不会明说,学校也不会教。 今天,我将揭露AI论文写作的“行业内幕”:从查重系统的底层逻辑,到导师私藏的降重技巧,再到9款能让你“30分钟出5万字初稿、查重率<10%、零AIGC痕迹”的神器。其中PaperTan作为“论文领域的隐形王者”,更是能直接破解知网维普的检测算法——这篇文章,可能是你离“无痛毕业”最近的一次。 一、先看结论:9款AI论文工具核心能力对比(独家测评表) 在深入揭秘前,先给你一份“避坑指南”——我花了14天实测9款工具,

By Ne0inhk
RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

国产AIGC视频大模型正加速落地,RTX 4090凭借强大算力与大显存,成为本地部署腾讯混元、阿里通义万相等前沿视频生成模型的最佳选择,开启桌面级AI创作新时代。 目录 * 一、引言:国产AIGC视频大模型,桌面算力的新疆域 * 二、解锁潜能:RTX 4090与国产视频大模型的协同优势 * 三、项目解析:国产AIGC视频模型的创新之路 * 四、部署与环境搭建:国产模型的本地化实践 * 4.1 基础环境准备 * 4.2 模型部署流程:腾讯混元与阿里通义万相的本地化实战 * 4.3 ComfyUI 集成与优化 * 五、性能测试与对比:RTX 4090 的硬核实力 * 5.1 生成速度实测 (fps / s/frame) * 5.2 显存消耗与优化策略 * 六、实际应用场景:国产模型赋能创意工作流 * 七、

By Ne0inhk