GitHub Copilot 使用笔记

GitHub Copilot 是 VSCode 自带的 AI Agent 插件,需要登录 GitHub 账号使用,分为免费版和付费版。

关于个人额度,可以在 Github 的 Copilot 菜单里查看

额度面板

支持模型

模型列表

添加第三方模型

通过 Manage Models 选中对应厂商。
可以通过 OpenRouter 来导入免费的模型,需要先到 OpenRouter 注册 API Key,输入后即可使用,也可以使用兼容 OpenAI 接口的三方 API,比如 硅基流动 SiliconFlow


使用帮助信息

切换到 Ask 模式,输入 /help 即可获取帮助命令,可以查看当前有什么可用命令和使用方法。

翻译后的内容,方便查看,注意 @ 和 / 开头都是指令,通常在 Agent 编辑器里, @开头代表查找/文件定位,/ 开头代表执行指令 :

  • 输入 /help 可以获取以下帮助信息

@workspace:询问关于你的工作区的问题

  • /explain:解释当前编辑器中代码的工作原理
  • /tests:为选中的代码生成单元测试
  • /fix:为选中代码中的问题提出修复方案
  • /new:在工作区中创建新文件或项目的脚手架代码
  • /newNotebook:创建一个新的 Jupyter Notebook
  • /setupTests:在项目中设置测试(实验性功能)

@vscode:询问关于 VS Code 的问题

  • /search:生成工作区搜索的查询参数
  • /startDebugging:生成启动配置并在 VS Code 中开始调试(实验性功能)

@terminal:询问如何在终端中执行某些操作

  • /explain:解释终端中的内容

@github:获取基于网页搜索和代码搜索的答案,可以用来阅读 Github 上的源码项目

使用建议
为了获得更好的对话体验,请像与真正的程序员交流一样提问:

  • 展示代码:打开相关文件并选中最重要的代码行
  • 持续优化:通过追问、补充说明、提供错误信息等方式不断完善对话

插件扩展

Marketplace
通过 GitHub Marketplace 可以获取对应的插件进行安装,扩展 Agent 功能,这里需要我们在市场里授权用户安装插件(Github 插件是和用户本体绑定的)。


授权通过后,在 VSCode 中使用 Ctrl + Shift + P 输入 Reload Window 重新加载窗口,即可看到 @docker 指令可以使用。

开发实践

注释 + Tab 生成功能

可以在文件头部写入注释,Agent 会根据注释自动生成对应代码,减少代码书写。

// 帮我生成 xxxx // 等待自动补全 Tab 

Markdown 文档生成

可以通过 Markdown 文档形式说明自己的要求,然后采用 #file:读取MD文档位置 引用文档,让 Agent 自动完成文档内指定的任务。

LLM 模型调用

GitHub Copilot 官方也提供了大模型的调用能力

可以基于 Agent 开发基于 LLM 交互的前后端一体化内容。
通过 Marketplace 可以很方便地获取模型使用的源码,选中 Model 后随便选中一个模型。

点击 Playground,在里面选中 Code 就可以得到对应的调用源码,再根据 Agent 进行转换即可。


使用时需要申请 API Key(GitHub Token)。


通过 Use This Model 访问去创建免费 Token Key,再放到调用代码里使用。


个人体验

后续用 claude 和 cursor 就回不去了,截止我最近一次使用的感受:

  • 整体业务理解程度一般, 单一业务处理能力强,但是最近看更新了不少东西,应该是有改进的
  • 集成在 VSCode 编辑器中,对经常用 VSCode 编辑器开发的人比较友好,免费额度日常开发也够用
  • 插件和 Github 账号绑定存在一定门槛
  • 不用科学就可以支持用 GPT 模型,但是内置模型比较少

相关学习网站

Read more

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

https://github.com/MixLabPro/comfyui-mixlab-nodes 彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错 在 ComfyUI 中安装 Mixlab Nodes 插件后,控制台显示其他节点正常,便 Whisper.available False。即使环境里安装了 openai-whisper 和 faster-whisper,问题依然可能存在。 Whisper.available False 本文将分享如何通过修改 __init__.py 进行深度 Debug,并修复 Whisper.py 中的路径逻辑漏洞。 1. 深度排查:让报错“开口说话” Mixlab 的默认日志只提示 False,不显示原因。为了抓出真凶,

N46Whisper:让日语视频字幕制作变得如此简单

N46Whisper:让日语视频字幕制作变得如此简单 【免费下载链接】N46WhisperWhisper based Japanese subtitle generator 项目地址: https://gitcode.com/gh_mirrors/n4/N46Whisper 还在为日语视频制作字幕而头疼吗?N46Whisper正是你一直在寻找的智能解决方案!这款基于云端AI技术的日语语音识别工具,彻底改变了传统字幕制作的繁琐流程,让每个人都能轻松上手。 为什么你需要这款工具 想象一下,原本需要数小时手动打字的工作,现在只需要几分钟就能完成。这就是N46Whisper带来的效率革命: * 零门槛使用:无需安装任何软件,打开浏览器就能开始工作 * AI精准识别:采用先进的Whisper技术,日语语音识别准确率惊人 * 云端极速处理:借助Google Colab的强大计算能力,处理速度超乎想象 * 双格式支持:ass和srt两种主流格式任你选择 快速入门:三步搞定日语字幕 第一步:准备环境 打开Google Colab,上传N46Whisper.ipynb文件,系

AIGC大模型系统化学习路径:从理论到工业级实战指南

快速体验 在开始今天关于 AIGC大模型系统化学习路径:从理论到工业级实战指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AIGC大模型系统化学习路径:从理论到工业级实战指南 背景痛点分析 当前开发者在AIGC应用落地过程中普遍面临三大核心挑战: 1. 模型选择困难症:开源模型如GPT-3、Claude、LLaMA等参数规模从7B到175B不等,不同架构的推理效果与计算成本差异显著。部分团队盲目追求大参数模型,导致推理延迟超标。

AMD显卡终极兼容指南:llama.cpp Vulkan后端快速解决方案

AMD显卡终极兼容指南:llama.cpp Vulkan后端快速解决方案 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在AMD显卡上运行llama.cpp时遇到过Vulkan初始化失败或推理速度异常的问题?本文为你提供一套完整的AMD显卡兼容性解决方案,让你轻松解决llama.cpp在AMD设备上的各种疑难杂症。通过本指南,你将掌握从驱动优化到性能调优的全套技巧,让大语言模型在AMD显卡上流畅运行。 AMD显卡兼容性问题深度解析 AMD显卡用户在使用llama.cpp的Vulkan后端时,主要面临三大挑战: 驱动版本不匹配:不同世代的AMD显卡对Vulkan API的支持程度存在差异,特别是RDNA架构的RX 6000/7000系列。 内存管理冲突:AMD的显存分配策略与llama.cpp的预期存在偏差,导致模型加载失败。 着色器编译异常:特定驱动版本在编译SPIR-V着色器时会产生无效