Copilot使用体验

本篇是去年使用Copilot的记录,不代表目前水平,仅做个人记录同步,谨慎参考。

GitHub Copilot的订阅计划

https://docs.github.com/en/copilot/about-github-copilot/subscription-plans-for-github-copilot
个人版提供30天的免费试用。个人版每月10 美元或每年 100 美元。

Copilot操作文档

https://docs.github.com/en/copilot/quickstart
目前支持JetBrains IDEs,Vim/Neovim,Visual Studio,Visual Studio Code,Xcode。安装插件,登录Github账号就可以使用了,需要开代理。

基本操作

  • 获取代码建议,输入代码时会自动触发,使用“Tab”键采纳。
  • 切换建议,macOS使用“Option+]”或“Option+[”,windows使用“Alt+]” 或 “Alt+[”切换下一条,上一条。
  • 聊天模式,可以引用文件,生成测试代码,解释代码,修复问题。

基本操作,支持功能和同类型工具都大差不差,主要关注实际提示代码质量。

其他设置

  • 启用或禁用公共代码匹配的建议,如果选择允许匹配公共代码的建议,当Copilot建议匹配代码时,可以显示匹配的详细信息,并点击到GitHub上的相关存储库。
  • 访问Bing,Copilot将使用Bing在互联网上搜索与问题相关的信息。在讨论新技术或特定的主题时,Bing搜索尤其有用。

Copilot优缺点

优点

  • 提示速度快,支持语言丰富。
  • 偏向提示多行代码块,方便快捷。
  • 相对其他同类型工具提示更精准。
  • 会根据项目代码不断优化提示,做到更贴近所想。

缺点

  • 需要使用代理,没有国内的工具访问方便。
  • Copilot 是使用大量代码训练的,但它的范围仍然有限。 它可能无法处理一些复杂的代码结构或模糊的编程语言。
  • Copilot 并不是没有错误的。可能会生成看起来有效但实际无效的代码。 为了降低代码不准确的风险,需要仔细查看和测试生成的代码。
  • 由于上下文的限制,copilot不能全局考虑问题,更多的是解决局部的问题。会存在方法未复用的情况。

辅助编程相关场景举例说明

一般有三大类:

  • 代码-代码:包含代码补全、代码修复
  • 代码-文本:代码解释、代码优化、代码异常排查
  • 文本-代码:通过提示词 Prompt 做代码生成 (单元测试等)

支持语言

常用语言都支持(Java,python,JavaScript,Go,C, Kotlin等),亲测Flutter的Dart语言也可以很好的支持。

代码补全

场景:数据上报点击删除按钮时,pageinfo传入课程id(多个课程id用逗号分隔)
操作:当我输入到map方法做转换时,Copilot猜到我的意图,给出了下面的提示。

在这里插入图片描述


提示和预期完全一致,比较惊喜的地方在于,下载对象中属性字段很多,并且有“id”这个字段作为相似项干扰。
在我没有告知Copilot我的需求情况下,最终可以准确提示,还是很智能的。

代码修复

下面这段代码在实际运行中会报错崩溃,我们根据报错行数找到这段问题代码:

val goal ="${list[0].option.filter{ it.selected }[0]?.id ?: 1}"// java.lang.IndexOutOfBoundsException: Index 0 out of bounds for length 0

选中这行问题代码,输入“/fix”修复这个问题。

在这里插入图片描述


可以看到copilot解释了问题的原因,并给出了解决方案。

代码生成

可以通过写注释的方式,让Copilot帮我们生成相关代码。Copilot会根据上下文,给到合理的代码。

在这里插入图片描述

Read more

Llama-3.2-3B惊艳案例:Ollama部署后3B模型生成的半导体设备进口合规申报材料初稿

Llama-3.2-3B惊艳案例:Ollama部署后3B模型生成的半导体设备进口合规申报材料初稿 最近,我尝试用Ollama部署了Meta最新开源的Llama-3.2-3B模型,想看看这个只有30亿参数的小模型到底有多大能耐。结果让我大吃一惊——它竟然能生成一份相当专业的半导体设备进口合规申报材料初稿! 你可能觉得,生成文本嘛,不就是写写文章、编编故事?但这次我测试的是一个非常专业的领域:半导体设备进口。这涉及到技术规格、海关编码、监管要求等一系列复杂内容。让我带你看看这个3B小模型是如何惊艳到我的。 1. 为什么选择Llama-3.2-3B? 在开始展示效果之前,我先简单说说为什么选这个模型。 1.1 模型特点:小而精悍 Llama-3.2-3B是Meta推出的最新一代开源语言模型,虽然只有30亿参数,但在多项基准测试中表现优异。它专门针对多语言对话场景进行了优化,包括代理检索和摘要任务。 几个关键优势: * 体积小:3B参数,部署简单,对硬件要求低 * 性能强:在同类小模型中表现突出 * 多语言:支持多种语言,包括中文 * 开源免费:可以自由使用和部署

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON

ComfyUI Manager:AI绘画工作流的终极智能管家

ComfyUI Manager:AI绘画工作流的终极智能管家 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager 想要在ComfyUI中高效管理各类插件和模型?ComfyUI Manager正是你需要的智能管家。这个强大的工具让AI绘画工作流的管理变得简单直观,无论你是初次接触还是资深用户,都能从中获得显著效率提升。 🚀 三分钟快速部署指南 启动ComfyUI Manager的过程比想象中简单。首先确保你的环境满足基本要求:Python 3.8-3.10版本、8GB以上内存、2GB可用存储空间。 一键安装命令: cd custom_nodes && git clone https://gitcode.com/gh_mirrors/co/ComfyUI-Manager comfyui-manager 安装完成后,重启ComfyUI应用程序,你将在主菜单中看到"Manager&

github copilot学生认证教程,免费使用两年Copilot Pro!!(避免踩坑版)

github copilot学生认证教程,免费使用两年Copilot Pro!!(避免踩坑版)

先放结果,本人是先后申请了三次: 1、第一次直接用的学生证,打开对着电脑摄像头直接拍了一张,失败了,如下,理由是没有开启双重认证!!,并且学生证内页没有学校名称!! 2、第二次开了双重认证之后我又重新提交了一次,这次使用的是学信网上的中英文对照截图,又失败了,理由如下: 简单来说就是,(1)开了代理;(2)定位不在学校附近,也就是与主页信息处的Location不相符(这个后面会讲!);(3)个人信息不完整 3、在前面所有错误修改完善之后,我又查看了大量的相关帖子和教程,最终打造出一个完美的申请流程,终于出现了这个,而且是秒通过!!! --------------------------------------------------------------------------------------------------------------------------------- 本文所有步骤均为实操,安全有保障,帖子随意看,对您有用的话还希望给个三连,祝好运!! 下面开始手把手教程,保证详细,仅此一篇足以!!! 一、申请前提 1、GitHub账号一个,ht