Github Copilot Agent模式使用经验分享

Github Copilot Agent模式使用经验分享

本文总结了如何使用 GitHub Copilot Agent 模式,并分享实际操作经验。

前置设置

  1. 使用 VSCode Insider;
  2. 安装 GitHub Copilot(预览版)插件;
  3. 选择 Claude 3.7 Sonnet(预览版)模型,该模型在代码编写方面表现出色,同时其它模型在速度、多模态(如图像识别)及推理能力上具备优势;
  4. 工作模式选择 Agent。

操作步骤

  1. 打开 “Copilot Edits” 选项卡;
  2. 添加附件,如 “Codebase”、“Get Errors”、“Terminal Last Commands” 等;
  3. 添加 “Working Set” 文件,默认包含当前打开的文件,也可手动选择其他文件(如 “Open Editors”);
  4. 添加 “Instructions”,输入需要 Copilot Agent 特别注意的提示词;
  5. 点击 “Send” 按钮,开始对话,观察 Agent 的表现。

其它说明

  • VSCode 通过语言插件提供的 lint 功能可以产生 Error 或 Warning 提示,Agent 能自动根据这些提示修正代码。
  • 随着对话的深入,Agent 生成的代码修改可能会偏离预期。建议每次会话都聚焦一个明确的主题,避免对话过长;达到短期目标后结束当前会话,再启动新任务。
  • “Working Set” 下的 “Add Files” 提供 “Related Files” 选项,可推荐相关文件。
  • 注意控制单个代码文件的行数,以免 token 消耗过快。
  • 建议先生成基础代码,再编写测试用例,便于 Agent 根据测试结果调试和自我校验。
  • 为限制修改范围,可在 settings.json 中添加如下配置,只修改指定目录下的文件, 仅供参考:
"github.copilot.chat.codeGeneration.instructions":[{"text":"只需修改 ./script/ 目录下的文件,不修改其他目录下的文件."},{"text":"若目标代码文件行数超过 1000 行,建议将新增函数置于新文件中,通过引用调用;如产生的修改导致文件超长,可暂不严格遵守此规则."}],"github.copilot.chat.testGeneration.instructions":[{"text":"在现有单元测试文件中生成测试用例."},{"text":"代码修改后务必运行测试用例验证."}],

常见问题

输入需求得不到想要的业务代码

需要将大任务拆分成较小的任务, 每次会话只处理一个小任务. 这是由于大模型的上下文太多会导致注意力分散.

喂给单次对话的上下文, 需要自己揣摩, 太多和太少都会导致不理解需求.

DeepSeek 模型解决了注意力分散问题, 但需要在 cursor 中使用 Deepseek API. 不清楚其效果如何.

响应缓慢问题

需要理解 token 消耗机制, token 输入是便宜且耗时较短的, token 输出贵很多, 且明显更缓慢.

假如一个代码文件非常大, 实际需要修改的代码行只有三行, 但由于上下文多, 输出也多, 会导致 token 消耗很快, 且响应缓慢.

因此, 必须要考虑控制文件的大小, 不要写很大的文件和很大的函数. 及时拆分大文件, 大函数, 通过引用调用.

业务理解问题

理解问题或许有些依赖代码中的注释, 以及测试文件, 代码中补充足够的注释, 以及测试用例, 有助于 Copilot Agent 更好的理解业务.

Agent 自己生成的业务代码就有足够多的注释, 检视这些注释, 就可以快速判断 Agent 是否正确理解了需求.

生成大量代码需要 debug 较久

可以考虑在生成某个特性的基础代码后, 先生成测试用例, 再调整业务逻辑,这样 Agent 可以自行进行调试,自我验证.

Agent 会询问是否允许运行测试命令, 运行完成后会自行读终端输出, 以此来判断代码是否正确. 如果不正确, 会根据报错信息进行修改. 循环往复, 直到测试通过.

也就是需要自己更多理解业务, 需要手动写的时候并不太多, 如果测试用例代码和业务代码都不正确, Agent 既不能根据业务写出正确用例, 也不能根据用例写出正确业务代码, 这种情况才会出现 debug 较久的情况.

总结

理解大模型的 token 消耗机制, 输入的上下文很便宜,输出的代码较贵,文件中未修改的代码部分可能也算作输出, 证据是很多无需修改的代码也会缓慢输出.

因此应尽量控制单文件的大小, 可以在使用中感受 Agent 在处理大文件和小文件时, 响应速度上的差异, 这个差异是非常明显的.

Read more

AI小说生成器终极指南:从零打造你的智能写作助手

AI小说生成器终极指南:从零打造你的智能写作助手 【免费下载链接】AI_NovelGenerator使用ai生成多章节的长篇小说,自动衔接上下文、伏笔 项目地址: https://gitcode.com/GitHub_Trending/ai/AI_NovelGenerator 深夜,你坐在电脑前,面对空白的文档,脑海中构思已久的故事情节却难以流畅地转化为文字。角色对话生硬,剧情推进乏力,伏笔设置混乱——这是许多创作者面临的共同困境。现在,让我们一同探索如何利用AI_NovelGenerator这个强大的工具,彻底改变你的创作体验。 开篇引语:当AI遇见文学创作 想象一下,你只需要设定一个核心主题,AI就能自动为你生成完整的小说设定、章节目录,甚至每一章的详细内容。AI_NovelGenerator正是这样一个革命性的平台,它将人工智能技术与文学创作完美结合,为写作者提供前所未有的创作支持。 创作新纪元:AI_NovelGenerator不仅仅是工具,更是你的创作伙伴。它能理解上下文关系,自动衔接剧情,设置精妙伏笔,让长篇小说的创作变得轻松而富有乐趣。 核心功能详解:智能

By Ne0inhk
GitHub Copilot 在 VS Code 上的终极中文指南:从安装到高阶玩法

GitHub Copilot 在 VS Code 上的终极中文指南:从安装到高阶玩法

GitHub Copilot 在 VS Code 上的终极中文指南:从安装到高阶玩法 前言 GitHub Copilot 作为 AI 编程助手,正在彻底改变开发者的编码体验。本文将针对中文开发者,深度解析如何在 VS Code 中高效使用 Copilot,涵盖基础设置、中文优化、核心功能详解,并提供多个实战场景配置模板。 一、安装与配置全流程 1. 完整安装步骤 1. 扩展安装 * 打开 VS Code → 点击左侧活动栏的 Extensions 图标(或按 Ctrl+Shift+X) * 搜索框输入 GitHub Copilot → 点击安装按钮 2. 账号授权 * 安装完成后右下角弹出通知 → 点击 Sign in

By Ne0inhk

Ollama性能优化实战:如何用llama C++在Mac M2上提升qwen:7b推理速度

Ollama性能优化实战:如何用llama C++在Mac M2上提升qwen:7b推理速度 当你在Mac M2上运行qwen:7b这样的开源大语言模型时,是否曾为推理速度不够理想而困扰?作为一款基于llama C++的高效推理框架,Ollama在Apple Silicon平台上展现出了惊人的性能潜力。本文将深入剖析如何充分利用M2芯片的硬件特性,通过一系列优化手段将模型推理速度提升到新的高度。 1. 理解Ollama与llama C++的底层架构 Ollama之所以能在Mac平台上表现出色,很大程度上得益于其底层llama C++的精巧设计。这套纯C/C++实现的推理引擎针对现代处理器架构做了深度优化: * 无依赖的轻量级设计:完全摆脱了Python生态的包袱,避免了解释器开销 * 硬件指令级优化:针对不同CPU架构实现了特定指令集加速 * 多精度量化支持:从1.5位到8位的整数量化方案大幅减少内存占用 在M2芯片上,llama C++主要通过三个关键技术实现加速: 1. ARM NEON指令集:用于加速矩阵乘法和向量运算 2. Accelerate框架:苹果

By Ne0inhk

扩散模型性能对比:Z-Image-Turbo vs Stable Diffusion,推理速度提升80%

扩散模型性能对比:Z-Image-Turbo vs Stable Diffusion,推理速度提升80% 技术选型背景与核心挑战 近年来,AI图像生成技术在内容创作、设计辅助和数字艺术等领域迅速普及。以Stable Diffusion为代表的扩散模型凭借其强大的生成能力成为行业标准。然而,这类模型通常需要30~60秒才能完成一张1024×1024分辨率图像的生成,在实际应用中面临响应延迟高、用户体验差的问题。 尤其是在Web端交互式场景下,用户期望“输入即见结果”的即时反馈。传统扩散模型因推理耗时长,难以满足这一需求。开发者常需在生成质量与响应速度之间做出妥协——要么降低分辨率或步数牺牲画质,要么接受长时间等待。 在此背景下,阿里通义实验室推出的 Z-Image-Turbo 模型引起了广泛关注。该模型宣称在保持高质量输出的同时,将推理速度提升至原有模型的5倍以上。本文将从技术原理、性能实测到工程落地,全面对比 Z-Image-Turbo 与经典 Stable Diffusion 的差异,并验证其“推理速度提升80%”的实际表现。 方案A:Stable Diffusion

By Ne0inhk