JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

1. 背景说明:Agent Mode 与 MCP 的意义

Agent Mode 是 GitHub Copilot 的新形态,它能理解自然语言指令,自动拆分任务,遍历项目文件,执行命令并修改代码,像一个“自主项目助手”一样工作。

Model Context Protocol (MCP) 是一套用于 Copilot 调用外部工具的协议标准,让 Agent Mode 能访问终端、读写文件、检查代码等能力。

JetBrains 自 2025 年 5 月起已提供 Agent Mode + MCP 公测支持。最新版的插件已经是正式的非Preview版本。


2. JetBrains 中如何启用 Agent Mode

(1) 升级插件

确保已安装最新版 GitHub Copilot 插件(例如 1.5.x 或更高)。

(2) 配置 MCP Servers

进入插件设置:点击 Copilot 图标 → Edit Settings → MCP Servers。添加如下 mcp.json

{ "servers": { "GitHub": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-github"], "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "your-token-here" } } } } 

(3) 切换 Agent 模式

新的版本插件已经不是Preview了,Agent模式也挪到了 Copilot Chat 面板底部的下拉菜单。选择 "Agent"即可使用。

                                        


3. Ask / Edit / Agent 模式区别概览

模式适用场景操作范围是否改动代码
Ask Mode查问题、学习概念单个文件或语句不修改,仅回答
Edit Mode进行小范围修改(函数、变量等)指定工作集中的文件提议更改,由用户审查后接受
Agent Mode多步任务、跨文件、可跑命令全项目范围自动更改 + 终端操作,支持迭代

“Ask” 更多用于概念和语法参考,“Edit” 对细节型改动友好,“Agent” 非常适合涉及构建、测试、修复等复杂任务的自动化。


4. 使用建议与适配场景

  • Ask Mode:适合快速查询API、语法、概念等,不涉及代码修改。
  • Edit Mode:适用于重构、单元测试、变量/函数更新等一两处改动。
  • Agent Mode:适合复杂任务,如重构模块、创建新功能、运行测试、修复编译错误等。可结合 MCP 调用终端命令完成多步逻辑。

5. 常见问题解答

  • 问:Agent Mode 是否必须首先配置 MCP?
    答:是的,多步任务尤其需要调用终端工具或访问文件,需配置 MCP 服务(The GitHub Blog)。
  • 问:JetBrains 支持 Agent Mode 吗?部分知乎用户说仅 VS Code 有……
    答:现在 JetBrains 已正式支持 Agent Mode(无“Preview”字样)(Reddit)。
  • 问:Agent 模式会自动提交改动吗?
    答:不会,所有更改仍需用户审查确认后才生效,同时支持“Undo Last Edit”回退操作(Visual Studio Code)。

6. 总结

  • Agent Mode 将 Copilot 从“智能补全”升级为“能干工程师”,支持跨文件、终端、测试执行等多步任务。
  • MCP 是其能力扩展背后的技术保障。
  • JetBrains 已全面支持 Agent Mode + MCP,无需再等待“Preview”标签。
  • 未来 Copilot 在自动化开发工作流上的潜力巨大,值得深入探索。

Read more

【GitHub开源AI精选】WhisperX:70倍实时语音转录、革命性词级时间戳与多说话人分离技术

【GitHub开源AI精选】WhisperX:70倍实时语音转录、革命性词级时间戳与多说话人分离技术

系列篇章💥 No.文章1【GitHub开源AI精选】LLM 驱动的影视解说工具:Narrato AI 一站式高效创作实践2【GitHub开源AI精选】德国比勒费尔德大学TryOffDiff——高保真服装重建的虚拟试穿技术新突破3【GitHub开源AI精选】哈工大(深圳)& 清华力作 FilmAgent:剧本自动生成 + 镜头智能规划,开启 AI 电影制作新时代4【GitHub开源AI精选】Lumina - Image 2.0 文生图模型,以小参数量实现高分辨率多图生成新突破5【GitHub开源AI精选】探索 Mobile-Agent:X-PLUG 推出的创新型移动智能操作代理6【GitHub开源AI精选】吴恩达团队开源VisionAgent:用自然语言开启计算机视觉新时代7【GitHub开源AI精选】Oumi:一站式AI开发平台,涵盖训练、评估与部署全流程8【GitHub开源AI精选】深入剖析RealtimeSTT:开源实时语音转文本库的强大功能与应用9【GitHub开源AI精选】PodAgent:多智能体协作播客生成框架,

从点不亮LED到做出图像系统:我的 FPGA 学习路径复盘

从点不亮LED到做出图像系统:我的 FPGA 学习路径复盘

一年前,我还在为一个简单的流水灯上板失败而焦头烂额。 仿真波形完美,开发板毫无反应——查了三天,最后发现是约束文件里漏了一个引脚定义。 如今回头看,FPGA 学习最难的从来不是 Verilog 语法,而是如何把零散的知识拼成一个能跑起来的系统。 这篇文章,是我对自己两年学习过程的一次梳理,希望能给正在路上的你一点参考。 新手最容易卡住的三个地方 1. 硬件环境搭建成本高、试错周期长 买板子只是开始,驱动、电源、外设兼容性……很多时间花在了非核心问题上。 2. 学了一堆知识点,却做不出完整功能 看得懂状态机,也写过 UART,但一整合就出问题——因为没人教你怎么“搭系统”。 3. 调试无从下手 “仿真对,上板错”是常态。跨时钟域、时序违例、信号完整性……这些概念只有在真实项目中踩过坑,才真正理解。 我的四阶段进阶思路 阶段一:先理解“硬件是怎么工作的” 别急着写复杂逻辑。用最简单的例子建立直觉: * 用计数器控制

App Inventor语音交互机器人实战:从零构建高效语音控制系统

快速体验 在开始今天关于 App Inventor语音交互机器人实战:从零构建高效语音控制系统 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 App Inventor语音交互机器人实战:从零构建高效语音控制系统 语音交互正在成为移动应用的重要入口,但很多App Inventor开发者在实现语音控制功能时,常常遇到识别延迟高、环境噪声干扰、多指令混淆等问题。本文将分享一套经过实战验证的优化方案,帮助开发者构建响应迅速的语音交互机器人。

IEEE TRO 南方科大张明明和北工大董明杰联合在康复机器人领域取得系列研究成果

IEEE TRO 南方科大张明明和北工大董明杰联合在康复机器人领域取得系列研究成果

近期,南方科技大学生物医学工程系张明明副教授和北京工业大学董明杰副教授联合,在康复机器人领域取得系列研究进展,相关成果接连发表在机器人领域国际学术期刊IEEE Transactions on Robotics。 创建多人协作交互方法与创新康复系统 为相关领域发展奠定理论基础 图1. 多用户协作创新康复系统 当前的多用户人机交互研究主要关注机器人控制系统自身的稳定性,往往忽视了真实协作情境中“人与人”之间的相互影响。与此不同的是,本研究并未将操作者视为独立的无源终端,而是在系统设计核心层面纳入并建模这一事实:在多人触觉交互中,每位操作者本身就是彼此交互环境的一部分,其行为会直接并持续地影响他人的感知与系统稳定性。然而,随着交互用户数量的增加,尤其在操作者具有主动行为时,传统控制方法难以有效应对人际间的交互耦合与系统规模的扩大引起的稳定性条件复杂化,导致系统扩展能力受到制约。因此,如何在承认并融入操作者主动交互行为的前提下,维持系统稳定性并实现控制架构的可扩展性,成为一项关键挑战。 为应对这一挑战,研究人员创新性地提出了“个人交互环境”(Individual Interact