GitHub Copilot 教程

文章来源:https://vscode.it-docs.cn/docs/copilot/overview.html

GitHub Copilot 为 Visual Studio Code 增加了多代理开发功能。规划好你的方法,然后让AI代理在项目中实现并验证代码变更。并行运行多个代理会话:本地、后台或云端。从一个中心视角管理所有角色。内联建议、内联聊天和智能行为会帮助你完成整个编码流程。

代理与代理会话

代理端到端地处理完整的编码任务。给代理一个高级任务,它会将工作拆分成步骤,编辑文件,运行终端命令,调用工具,并在遇到错误或测试失败时自我纠正。每个任务都运行在一个代理会话中,这是一个持续存在的对话,你可以跟踪、暂停、继续或交接给另一个代理。

重要

你们组织可能在VS Code中禁用了代理。请联系你的管理员以启用此功能。

从中央视图管理会话

并行运行多个代理会话,每个会话专注于不同的任务。聊天面板中的会话视图为你提供了一个统一的地方来监控所有活跃会话,无论是本地运行、后台还是云端运行。查看每次会话的状态,切换,查看文件变更,然后从中断处继续。

了解更多关于管理Agents课程的信息。

随时执行代理

代理可以在本地的VS Code中运行进行交互式工作,在机器后台运行以实现自主任务,或者在云端通过拉取请求实现团队协作。你也可以使用像Anthropic和OpenAI这样的第三方代理。任何时候,将任务从一个坐席类型交给另一个,完整的对话记录都会继续。

聊天视图中会话类型选择器的截图,包含本地、后台、云端和第三方代理选项。

了解更多关于代理类型和委托的信息,或遵循代理教程

构建前先做好规划

在编写任何代码之前,使用内置的Plan代理将任务拆分成结构化的实施计划。计划代理会分析你的代码库,提出澄清问题,并制定逐步计划。当计划看起来合适时,交给实现代理执行,无论是本地、后台还是云端。

了解更多关于与Agent一起规划的信息。

你能做什么

  • 端到端构建一个功能。用自然语言描述一个特征,代理搭建项目架构,跨多个文件实现逻辑,并运行测试以验证结果。
  • 调试并修复失败的测试。把一个失败的测试指向一个代理,它会读取错误,追踪代码库的根本原因,应用修复,然后重新运行测试以确认。了解更多关于用AI调试的信息。
  • 构或迁移代码库。比如让代理规划从一个框架迁移到另一个框架,它会在文件间协调地应用变更,同时验证构建。
  • 通过拉取请求进行协作。将任务委托给云代理,由其创建分支,实施变更,并向团队提交拉取请求。了解更多关于云代理的信息

入门

步骤1:设置Copilot

  1. 将鼠标悬停在状态栏中的Copilot图标上,选择“设置Copilot”。
  2. 选择一种登录方式并按照提示作。如果您还没有Copilot订阅,您已注册Copilot免费套餐

步骤2:开始你的第一次Agent会话

  1. 打开聊天视图(Ctrl+Alt+I)。
  2. 检查生成的代码。代理创建文件、安装依赖,并根据需要执行命令。
  3. 进来/init为你的项目配置 AI 配置。这会创建自定义指令,帮助代理理解你的代码库并生成更好的代码。

输入一个提示,描述你想构建的内容,例如:Prompt (Agent) Open in VS Code

Create a basic Node.js web app for sharing recipes. Make it look modern and responsive.

关于涵盖内联建议、代理、内联聊天和自定义的完整实践教程,请参见“在VS Code中开始使用GitHub Copilot”。

更多用AI编程的方法

内联建议

Copilot 在你输入时提供代码建议,从单行补全到完整函数实现。下一步编辑建议可以根据你当前的编辑情况预测下一个逻辑上的更改。

了解更多关于VS Code中的内联建议

在线聊天

按Ctrl+I可直接在编辑器中打开聊天提示。描述一个变动,Copilot会建议原地编辑,这样你就能保持编码流程。用于针对性的重构、解释或快速修复,无需切换上下文。

了解更多关于VS Code中的内联聊天

智能行动

VS Code 包含预定义的 AI 驱动作,用于常见任务:生成提交信息、重命名符号、修复错误以及在项目中运行语义搜索。

VS Code 中智能行为菜单的截图,显示修复测试失败的选项。

了解更多关于VS Code中的智能动作

根据你的工作流程定制AI。

当代理了解你项目的惯例、拥有合适的工具并使用适合该任务的模型时,他们能发挥最佳作用。VS Code 提供了多种方法来定制 AI,使其从一开始就生成适合你代码库的代码,而不是事后手动修改。

  • 自定义说明:定义项目范围的编码规范,让AI生成符合你风格的代码。
  • 代理技能:教授跨 VS Code、GitHub Copilot CLI 和 GitHub Copilot 编码代理的专业能力。
  • 自定义代理:创建承担特定角色的代理,如代码审查员或文档编写者,配备自己的工具和指令。
  • MCP 服务器:通过 MCP 服务器或 Marketplace 扩展工具扩展代理。
  • 钩子:在特定事件执行自定义命令,实现自动化和策略执行。

支持

GitHub Copilot 聊天由 GitHub 提供支持,联系方式为 https://support.github.com

想了解更多关于Copilot的安全性、隐私、合规性和透明度的信息,请参阅GitHub Copilot信任中心常见问题解答。

定价

你可以免费开始使用 GitHub Copilot,但每月对内嵌建议和聊天互动有限制。如果需要更长时间的使用,可以选择多种付费套餐。

查看详细的GitHub Copilot定价

下一步

Read more

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录 写在前面 OpenClaw 是什么? 蓝耘平台是什么?与 OpenClaw 的关系 步骤一:极速安装,一行命令搞定环境 步骤二:启动向导,初始化配置参数 步骤 三:注入灵魂,获取蓝耘MaaS API Key 步骤四:打通渠道,搭建飞书长连接桥梁 步骤五:引擎点火,启动核心网关服务 步骤六:仪表盘检阅,后台状态可视化 步骤七:实战演练,验证智能交互效果 快速排错提示 写在末尾 写在前面 本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。 内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,

Stable-Diffusion-v1-5-archive效果展示:高清风格化图像生成作品集(附Prompt)

Stable-Diffusion-v1-5-archive效果展示:高清风格化图像生成作品集(附Prompt) 1. 引言:经典模型的魅力再现 如果你对AI绘画感兴趣,那么“Stable Diffusion”这个名字你一定不陌生。而今天我们要聊的,是它的一个经典版本——Stable Diffusion v1.5 Archive。这个模型就像是AI绘画世界里的“老将”,虽然现在有更新、更强大的模型出现,但它在风格化图像生成上的稳定性和独特的“味道”,依然让很多创作者爱不释手。 简单来说,Stable Diffusion v1.5 Archive是一个专门用来“文生图”的工具。你输入一段文字描述,它就能为你生成一张对应的图片。它的特点在于,对于很多艺术风格——比如油画感、动漫风、赛博朋克——有着非常出色的理解和表现力,生成的作品往往带有一种独特的质感和氛围。 这篇文章,我们不谈复杂的安装和配置,也不讲深奥的原理。我们就来一起看看,这个经典的模型到底能生成出怎样惊艳的图片。我会分享一系列不同风格、不同主题的生成作品,并且把生成每张图所用的“

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205模型生成AC代码对比

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205模型生成AC代码对比 1. 这个模型到底能写对几道编程题? 你有没有试过让AI帮你解算法题?不是那种“大概意思对就行”的伪代码,而是真正在CodeForces上能提交、能通过所有测试用例的AC代码?这次我们把目光投向一个刚开源不久、但已经在多个推理榜单上崭露头角的轻量级选手——DeepSeek-R1-Distill-Llama-8B。 它不是参数动辄几十B的大块头,而是一个仅80亿参数的蒸馏模型,却在CodeForces评测中拿到了1205分。这个分数意味着什么?它比GPT-4o(759分)高出近60%,比Claude-3.5-Sonnet(717分)翻了快一倍,甚至超过了QwQ-32B(1316分)的九成水平。更关键的是,它跑得快、占内存少、部署简单——用Ollama一条命令就能拉起来,本地笔记本也能稳稳扛住。 这篇文章不讲大道理,不堆参数,就做一件事:真实还原它解题的过程。我们选了5道CodeForces典型题(涵盖模拟、贪心、二分、图论和动态规划),从读题、思考、写代码,到

老码农和你一起学AI系列:LLaMA衍生模型

老码农和你一起学AI系列:LLaMA衍生模型

LLaMA衍生模型指的是基于Meta发布的LLaMA基础模型,通过微调、优化或扩展而产生的各类变体模型。就像LLaMA是一个强大的“通用大脑”,而衍生模型则是针对不同语言、不同任务、不同应用场景进行“专业培训”后的“专家”。根据衍生方式的不同,可以分为两大类:LLaMA衍生模型、官方演进版本 一、官方演进版本 LLaMA系列本身就在持续演进,每一代都是前一代的“官方衍生版”: 版本核心升级技术亮点LLaMA 1开源奠基13B参数超越GPT-3,验证“小模型+大数据”路线LLaMA 2可商用、GQA上下文翻倍至4K,引入分组查询注意力,70B版本逼近GPT-3.5LLaMA 315T数据、128K上下文405B旗舰版性能比肩GPT-4,代码占比提升至25%LLaMA 4MoE稀疏架构、多模态17B激活参数达400B总参数效果,原生支持图像/视频理解,1000万上下文窗口 二、社区微调衍生模型 Alpaca(斯坦福):LLaMA衍生模型的“鼻祖”。斯坦福团队用52K条指令数据对7B LLaMA进行微调,仅花费不到600美元就训练出媲美GPT-3.5的对话模型。