Visual Studio 2026中Github Copilot的大模型

在 Copilot Chat 中开始使用 AI 模型

Visual Studio 17.14 中,Visual Studio 里的 GitHub Copilot 默认使用 GPT-4.1(之前是 GPT-4o)。GPT-4.1 提供更快的响应速度、更高质量的代码建议,以及更高的编码效率。

不过,你并不局限于使用默认模型,你也可以选择其他模型,或者添加自己的模型,根据工作流程选择最合适的 AI 模型。

可用模型

在模型选择器中,你可以选择更多模型,包括:

  • Claude Sonnet 4
  • Claude Opus 4
  • GPT-5
  • Claude Sonnet 3.5
  • Claude 3.7(支持思考和非思考模式)
  • OpenAI o3-mini
  • Gemini 2.0 Flash
  • Gemini 2.5 Pro
  • GPT-5 mini

模型选择的改进

  • 持久选择:你选择的模型会在不同聊天线程中保持。
  • 直接启用模型:如果某个模型在你的订阅计划中可用但未启用,模型选择器会提示你激活它。
  • 模型可用性取决于你的 Copilot 订阅及各模型的当前状态。对于 Copilot EnterpriseBusiness 用户,管理员需要在 Copilot 设置中启用 Preview 策略后,模型才能在 Visual Studio 中使用。

自带模型(BYOM,Bring Your Own Model)

你可以通过提供 API Key 的方式,将自己的语言模型接入 Copilot Chat,支持的提供商包括 Anthropic、Google 和 OpenAI。这样可以让你配置自定义模型以匹配工作流程或评估新模型能力。

优势

  • 扩展模型选择范围,包括新模型或实验模型。
  • 满足基础设施、安全或性能要求。
  • 直接控制和监控 API 使用情况。
  • 可以在内置模型和自定义模型之间轻松切换。

添加 API Key 的步骤

  1. 在聊天界面打开模型选择器下拉菜单。
  2. 选择提供商(目前支持 OpenAI、Anthropic、Google)。
  3. 输入 API Key。
  4. 选择以下选项之一:
    • 默认列表中的标准模型
    • 提供商支持的任何模型,即使默认列表中未显示
  5. 确认自定义模型出现在模型选择器中。
  6. 在聊天中开始使用,自定义模型即可被 Copilot Chat 调用。

限制与注意事项

  • 自定义模型仅在 Visual Studio 的 Copilot Chat 中支持,不影响代码补全或其他 AI 功能(如生成提交信息)。
  • 模型能力取决于提供商,部分模型可能不支持工具使用、视觉输入或高级推理功能。
  • 嵌入、意图检测、仓库索引等服务可能仍使用 Copilot API。
  • 使用自定义模型时,输出直接来自提供商,可能绕过 Copilot 的 AI 责任过滤。
  • Copilot Business 或 Enterprise 用户不支持自定义模型。

Read more

用AIGC生成测试周报:从Jira、Git、CI日志中自动提炼关键指标

用AIGC生成测试周报:从Jira、Git、CI日志中自动提炼关键指标

测试周报自动化转型的迫切性‌ 每周一,对于许多测试工程师而言,可能都是从整理上周的“数据残骸”开始:打开不同的浏览器标签页,登录Jira查看新增缺陷和待关闭的BUG,翻阅Git提交记录寻找与测试关联的代码变更,再到CI/CD平台(如Jenkins、GitLab CI)的日志海洋中,搜寻失败的构建和测试用例执行报告。这个过程耗时耗力,且容易出错。更重要的是,这种碎片化的数据罗列,难以直观呈现测试工作的核心价值与项目风险的动态变化。 AIGC的引入,为破解这一困境提供了全新范式。它并非简单地“复制粘贴”数据,而是通过自然语言处理(NLP)、数据挖掘与智能分析,理解数据背后的上下文,自动汇总、关联、解读并生成一份内容丰富、重点突出、具备可读性和行动指引的测试周报。 核心:构建自动化数据管道与指标提炼模型‌ 一个有效的AIGC测试周报生成系统的核心在于‌数据源整合‌与‌智能指标提炼‌。 1. 数据源的接入与结构化‌ 首先,需要建立与三个核心系统的自动化数据连接: Jira连接‌:通过Jira REST API,定期拉取指定项目、

AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比

快速体验 在开始今天关于 AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比 背景痛点:被浪费的每一秒都在烧钱 最近在做一个短视频自动生成项目时,发现一个扎心现象:用AIGC生成的30秒视频,实际有效内容往往只有20秒左右。多出来的10秒黑屏或重复画面,不仅让用户观感下降,

StructBERT-Large实战教程:单句对多句批量检索模式扩展开发指南

StructBERT-Large实战教程:单句对多句批量检索模式扩展开发指南 1. 项目概述与核心价值 如果你正在处理中文文本的语义匹配任务,比如从大量文档中快速找到相关内容,或者需要判断两个句子的相似程度,那么StructBERT-Large将是你的得力助手。 这个工具基于阿里达摩院开源的StructBERT大规模预训练模型,专门针对中文语义理解进行了优化。与传统的文本匹配方法不同,它能够深入理解句子的语法结构和语义内涵,将中文句子转化为高质量的数值向量(Embedding),然后通过数学计算精确量化两个句子之间的相似程度。 核心能力亮点: * 深度理解中文语法和语义结构 * 将文本转换为可计算的数值向量 * 快速准确计算句子相似度 * 支持扩展到批量文本处理场景 2. 环境准备与快速部署 2.1 系统要求与依赖安装 在开始之前,确保你的系统满足以下要求: * Python 3.8或更高版本 * NVIDIA显卡(推荐RTX 4090或同级别显卡) * 至少8GB系统内存 * 足够的显卡显存(模型加载需要约1.5-2GB) 安装必要的依赖库:

极致压缩:Whisper.cpp 量化版本清单与 ggml 格式模型下载

Whisper.cpp 量化模型下载指南 Whisper.cpp 是 OpenAI Whisper 语音识别模型的高效 C++ 实现,支持量化技术来减小模型尺寸,实现“极致压缩”。量化通过降低模型参数的精度(如从 32 位浮点数到 4 位整数)来减少存储和计算需求,同时保持合理的准确性。ggml 格式是一种轻量级模型格式,专为资源受限设备优化。以下信息基于 Whisper.cpp 官方 GitHub 仓库(真实可靠),我将逐步引导您获取量化版本清单和下载链接。 1. 量化版本清单 Whisper.cpp 支持多种量化级别,每种对应不同的压缩率和精度权衡。以下是常见量化版本清单(基于最新官方数据): * q4_0:4 位量化,极致压缩,模型尺寸最小,适合内存受限设备(如嵌入式系统)。精度损失较高。