JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

1. 背景说明:Agent Mode 与 MCP 的意义

Agent Mode 是 GitHub Copilot 的新形态,它能理解自然语言指令,自动拆分任务,遍历项目文件,执行命令并修改代码,像一个“自主项目助手”一样工作。

Model Context Protocol (MCP) 是一套用于 Copilot 调用外部工具的协议标准,让 Agent Mode 能访问终端、读写文件、检查代码等能力。

JetBrains 自 2025 年 5 月起已提供 Agent Mode + MCP 公测支持。最新版的插件已经是正式的非Preview版本。


2. JetBrains 中如何启用 Agent Mode

(1) 升级插件

确保已安装最新版 GitHub Copilot 插件(例如 1.5.x 或更高)。

(2) 配置 MCP Servers

进入插件设置:点击 Copilot 图标 → Edit Settings → MCP Servers。添加如下 mcp.json

{ "servers": { "GitHub": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-github"], "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "your-token-here" } } } } 

(3) 切换 Agent 模式

新的版本插件已经不是Preview了,Agent模式也挪到了 Copilot Chat 面板底部的下拉菜单。选择 "Agent"即可使用。

                                        


3. Ask / Edit / Agent 模式区别概览

模式适用场景操作范围是否改动代码
Ask Mode查问题、学习概念单个文件或语句不修改,仅回答
Edit Mode进行小范围修改(函数、变量等)指定工作集中的文件提议更改,由用户审查后接受
Agent Mode多步任务、跨文件、可跑命令全项目范围自动更改 + 终端操作,支持迭代

“Ask” 更多用于概念和语法参考,“Edit” 对细节型改动友好,“Agent” 非常适合涉及构建、测试、修复等复杂任务的自动化。


4. 使用建议与适配场景

  • Ask Mode:适合快速查询API、语法、概念等,不涉及代码修改。
  • Edit Mode:适用于重构、单元测试、变量/函数更新等一两处改动。
  • Agent Mode:适合复杂任务,如重构模块、创建新功能、运行测试、修复编译错误等。可结合 MCP 调用终端命令完成多步逻辑。

5. 常见问题解答

  • 问:Agent Mode 是否必须首先配置 MCP?
    答:是的,多步任务尤其需要调用终端工具或访问文件,需配置 MCP 服务(The GitHub Blog)。
  • 问:JetBrains 支持 Agent Mode 吗?部分知乎用户说仅 VS Code 有……
    答:现在 JetBrains 已正式支持 Agent Mode(无“Preview”字样)(Reddit)。
  • 问:Agent 模式会自动提交改动吗?
    答:不会,所有更改仍需用户审查确认后才生效,同时支持“Undo Last Edit”回退操作(Visual Studio Code)。

6. 总结

  • Agent Mode 将 Copilot 从“智能补全”升级为“能干工程师”,支持跨文件、终端、测试执行等多步任务。
  • MCP 是其能力扩展背后的技术保障。
  • JetBrains 已全面支持 Agent Mode + MCP,无需再等待“Preview”标签。
  • 未来 Copilot 在自动化开发工作流上的潜力巨大,值得深入探索。

Read more

如何在VS Code中安装GitHub Copilot进行AI编程

如何在VS Code中安装GitHub Copilot进行AI编程

本文教您轻松在VS Code中玩转GitHub Copilot:从安装认证到实战网页开发,5分钟解锁AI编程神器,还能自由切换模型、实时调试代码! 在Visual Studio Code中搭建GitHub Copilot编程环境需要经过几个关键步骤,以下是详细指南: 环境准备阶段 1. 安装最新版VS Code(当前版本≥1.85)官网下载地址:https://code.visualstudio.com/ 2. 拥有有效的GitHub账户(建议启用双重验证) 注册地址:https://github.com/ 3. 稳定的网络连接(Copilot需实时云端交互) 安装流程 1、安装VS Code后,选择”Use All features with Copilot for free”。如果已经安装VS Code,可以打开VS Code扩展市场(

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享 你有没有试过和一个模型聊着聊着,它突然忘了前面说了什么?或者刚聊到关键处,它就卡在“上一句我提到了什么”上?这次我用一张RTX 3060显卡,完整跑通了Meta-Llama-3-8B-Instruct——不是跑个demo,是真正在open-webui里连续对话40轮、处理2700+ token的长文档摘要、边写Python边解释逻辑、还顺手把一段中文技术文档翻译成地道英文。它没断片,没乱序,也没把“用户说的第三点”记成“第二点”。 这不是参数堆出来的幻觉,而是80亿参数在vLLM加速下给出的稳定输出。更关键的是:它真的能在单卡消费级显卡上跑起来,不靠云服务,不靠API调用,所有推理都在本地完成。 下面这篇分享,没有PPT式的技术罗列,只有我真实用下来的观察、踩过的坑、验证过的边界,以及那些“原来还能这样用”的小发现。 1. 为什么选它?一张3060就能跑的“轻量全能选手” 很多人看到“Llama 3”第一反应是:又一个大模型?但Llama-3-8B-Instruct的定位很特别——它不是冲着GPT

office里面你所在的区域不支持Copilot的解决方法

最近了一年office 365羊毛,想试用copilot的时候遇到这个问题: 梯子开了美国全局tun也没用,之后怀疑是缓存问题,因为一开始没开梯子导致加载了中国区的js文件,所以没法用 用微软官方网站上的方法试了下清缓存: 删除以下文件夹的内容 %LOCALAPPDATA%\Microsoft\Office\16.0\Wef\ 之后保持美国全局tun重启word即可: 如果还是不行,可以尝试office 365的网页版,也能用Copilot 参考:https://ZEEKLOG.fjh1997.top/posts/40329.html

Face3D.ai Pro企业实操:AIGC内容工厂中人脸资产标准化生产方案

Face3D.ai Pro企业实操:AIGC内容工厂中人脸资产标准化生产方案 1. 企业级人脸资产生产的挑战与机遇 在当今AIGC内容工厂中,人脸资产的生产一直是个技术难题。传统3D建模需要专业美术师花费数小时甚至数天时间,而普通AI生成的人脸又往往缺乏工业级的精度和一致性。Face3D.ai Pro的出现,为企业提供了一个从单张照片到高质量3D人脸资产的完整解决方案。 这个系统基于深度学习的ResNet50面部拓扑回归模型,能够从一张普通的2D正面照片中,实时还原出高精度的3D人脸几何结构,并生成4K级别的UV纹理贴图。这意味着企业现在可以快速、批量地生产标准化的人脸资产,大幅提升内容生产效率。 2. Face3D.ai Pro核心功能解析 2.1 工业级重建算法 Face3D.ai Pro的核心优势在于其工业级的重建精度。系统基于ModelScope的cv_resnet50_face-reconstruction管道,实现了面部形状、表情与纹理的深度解耦。这种解耦设计意味着生成的人脸资产可以轻松地进行后续编辑和调整。 在实际应用中,系统会自动生成符合工业标准的UV