Visual Studio 2026中Github Copilot的大模型

在 Copilot Chat 中开始使用 AI 模型

Visual Studio 17.14 中,Visual Studio 里的 GitHub Copilot 默认使用 GPT-4.1(之前是 GPT-4o)。GPT-4.1 提供更快的响应速度、更高质量的代码建议,以及更高的编码效率。

不过,你并不局限于使用默认模型,你也可以选择其他模型,或者添加自己的模型,根据工作流程选择最合适的 AI 模型。

可用模型

在模型选择器中,你可以选择更多模型,包括:

  • Claude Sonnet 4
  • Claude Opus 4
  • GPT-5
  • Claude Sonnet 3.5
  • Claude 3.7(支持思考和非思考模式)
  • OpenAI o3-mini
  • Gemini 2.0 Flash
  • Gemini 2.5 Pro
  • GPT-5 mini

模型选择的改进

  • 持久选择:你选择的模型会在不同聊天线程中保持。
  • 直接启用模型:如果某个模型在你的订阅计划中可用但未启用,模型选择器会提示你激活它。
  • 模型可用性取决于你的 Copilot 订阅及各模型的当前状态。对于 Copilot EnterpriseBusiness 用户,管理员需要在 Copilot 设置中启用 Preview 策略后,模型才能在 Visual Studio 中使用。

自带模型(BYOM,Bring Your Own Model)

你可以通过提供 API Key 的方式,将自己的语言模型接入 Copilot Chat,支持的提供商包括 Anthropic、Google 和 OpenAI。这样可以让你配置自定义模型以匹配工作流程或评估新模型能力。

优势

  • 扩展模型选择范围,包括新模型或实验模型。
  • 满足基础设施、安全或性能要求。
  • 直接控制和监控 API 使用情况。
  • 可以在内置模型和自定义模型之间轻松切换。

添加 API Key 的步骤

  1. 在聊天界面打开模型选择器下拉菜单。
  2. 选择提供商(目前支持 OpenAI、Anthropic、Google)。
  3. 输入 API Key。
  4. 选择以下选项之一:
    • 默认列表中的标准模型
    • 提供商支持的任何模型,即使默认列表中未显示
  5. 确认自定义模型出现在模型选择器中。
  6. 在聊天中开始使用,自定义模型即可被 Copilot Chat 调用。

限制与注意事项

  • 自定义模型仅在 Visual Studio 的 Copilot Chat 中支持,不影响代码补全或其他 AI 功能(如生成提交信息)。
  • 模型能力取决于提供商,部分模型可能不支持工具使用、视觉输入或高级推理功能。
  • 嵌入、意图检测、仓库索引等服务可能仍使用 Copilot API。
  • 使用自定义模型时,输出直接来自提供商,可能绕过 Copilot 的 AI 责任过滤。
  • Copilot Business 或 Enterprise 用户不支持自定义模型。

Read more

Clawdbot汉化版开发者友好:RESTful API+Webhook+SDK全栈接入文档

Clawdbot汉化版开发者友好:RESTful API+Webhook+SDK全栈接入文档 Clawdbot 汉化版现已正式支持企业微信入口,这意味着你不仅能在 WhatsApp、Telegram、Discord 中与 AI 助手无缝对话,还能将智能服务深度集成进国内最主流的企业协作平台——企业微信。无需额外开发中间层,开箱即用的标准化接入能力,让团队内部知识问答、客服响应、流程自动化真正落地。 Clawdbot 就是一个你可以随时跟 AI 对话的智能助手,就像 ChatGPT 一样,但是: 在微信里就能用(支持 WhatsApp、Telegram、Discord、企业微信等) 完全免费(使用你自己的 AI 模型,不依赖云端 API) 数据隐私(所有聊天记录、会话状态、配置文件均存储在你本地服务器) 24 小时在线(开机自动启动,断网不中断,无外部依赖)

【DataX篇】DataX的两种部署方式以及DataX-Web可视化管理平台的搭建

【DataX篇】DataX的两种部署方式以及DataX-Web可视化管理平台的搭建

💫《博主主页》: 🔎 ZEEKLOG主页:奈斯DB 🔎 IF Club社区主页:奈斯、 🔎 微信公众号:奈斯DB 🔥《擅长领域》: 🗃️ 数据库:阿里云AnalyticDB(云原生分布式数据仓库)、Oracle、MySQL、SQLserver、NoSQL(Redis) 🛠️ 运维平台与工具:Prometheus监控、DataX离线异构同步工具 💖如果觉得文章对你有所帮助,欢迎点赞收藏加关注💖     这篇文章将系统的分享 DataX 的安装部署实践,详细拆解DataX的两种核心部署方式——二进制部署与源码编译部署,并深入探讨动态参数配置、并发度优化等关键调优技巧。🎯     在此基础上,也将进一步介绍如何集成 DataX-Web可视化管控平台 ,以构建一个具备 统一调度、实时监控与高效管理 能力的企业级数据同步运维体系。🚀     DataX二进制、源码安装部署的 Github 地址: https://github.com/alibaba/DataX/blob/master/userGuid.md     DataX-Web二进制、

TinyWebServer源码解析——HTTP机制

TinyWebServer源码解析——HTTP机制

项目地址 https://github.com/qinguoyi/TinyWebServer.git 尊重开源精神,保障作者权益,内容均为原创,如有雷同,纯属巧合 笔者能力有限,我认为这个部分还有更多的技术栈能够写出来,但是我的能力做不到了,如果以后有机会,我会再写一个修订版。敬请期待! 定义了一个http_conn类 实现了一个基于Linux epoll I/O 多路复用模型的高性能 HTTP 服务器核心模块 http_conn类 封装内容 1. void init()函数初始化连接 2. void close_conn()函数关闭连接 3. void process()主处理函数,由epoll触发后调用 4. bool read_once()函数一次性读取数据 5.

前端直连模型 vs 完整 MCP:大模型驱动地图的原理与实践(技术栈Vue + Cesium + Node.js + WebSocket + MCP)

适合读者:完全新手、前端开发者、对大模型工具调用感兴趣的工程师 技术栈示例:Vue + Cesium + Node.js + WebSocket + MCP 教程目标:看懂并搭建一套“用户通过聊天输入指令,大模型决定调用工具,再驱动地图执行动作”的完整链路 目录 * 1. 这篇教程要解决什么问题 * 2. 先别写代码:先搞懂两个很像但本质不同的方案 * 2.1 方案一:前端直连模型 * 2.2 方案二:真正完整的 MCP * 2.3 它们最核心的区别 * 3. 为什么很多人一开始会把两套方案混在一起 * 4. 先建立整体认知:完整 MCP 里有哪些角色 * 5. 完整 MCP 的时序图:一句“飞到上海”是怎么穿过整个系统的 * 6.