【GitHub】github学生认证,在vscode中使用copilot的教程

【GitHub】github学生认证,在vscode中使用copilot的教程

github学生认证并使用copilot教程


请添加图片描述

🌈你好呀!我是 是Yu欸🌌 2024每日百字篆刻时光,感谢你的陪伴与支持 ~🚀 欢迎一起踏上探险之旅,挖掘无限可能,共同成长!


写在最前面

去年,我被安利后开始使用 GitHub Copilot,这是由 OpenAI 开发的一款革命性的代码自动补全工具。GitHub Copilot 不仅仅是一个简单的代码助手;它基于强大的 GPT-3 模型,能够理解编程语言的复杂性和上下文,从而提供高质量的代码补全建议。

在这里插入图片描述

Copilot 的设计目标是提高程序员的编码效率和准确性,使用 Copilot 极其方便。

  1. 它通过分析程序员输入的代码和上下文,智能地生成符合逻辑和语法的代码片段。
  2. 程序员在编码时只需输入关键字或简短的代码提示,Copilot 就能迅速提供一系列合适的代码片段供选择。
  3. 此外,它支持广泛的编程语言和开发框架,包括但不限于 Python、JavaScript、Java、C++ 和 React。这意味着无论你在使用哪种技术栈,Copilot 都能提供相应的支持。
  4. 更为重要的是,Copilot 不仅提供代码补全,还能根据用户的编码习惯和历史输入智能地调整其建议,使得这些建议更加个性化和精准。
  5. 此外,它还能帮助程序员更深入地理解代码的结构和语法,提供有关新编程语言和框架的学习支持。

通过 Copilot,程序员能够快速掌握新技术,有效提升其开发能力和工作效率。

参考:https://blog.ZEEKLOG.net/cbetula/article/details/130276152

一.注册github账号

1.1、注册

  1. 用如QQ邮箱的第三方邮箱注册github
    再添加.edu结尾的教育邮箱(Email settings (github.com))
  2. 用以.edu结尾的教育邮箱注册github

1.2、完善你的profile

点击你的头像,有一个“Your profile”进入即可

在左侧填写相应的数据

以下格式填写profile

Name: 中文名(English Name)

Bio: (学校名)SchoolName/major in +你的专业(用英文)

pronouns: 随便选

company:填学校的英文名

地点:你现在的地点

时间:打勾即可

链接:填你学校的官方地址

social accounts : 可选

二、Github 学生认证

填好并save后,进入
https://education.github.com/discount_requests/application

进入后一定不要打开代理,这里的认证过程无需代理即可正常上网。
并且如果挂着代理进入,可能会出现学校位置与你当前位置不符,

若出现以上情况,可进入Payment Information (github.com),完善以下信息,重新认证即可。

邮箱
填写教育邮箱,即带有.edu后缀的邮箱。

学校名称
填写学校英文名。

在这里插入图片描述

然后同意访问位置。

Upload Proof

此步骤建议使用手机摄像头现场拍摄。证件推荐使用学生卡或者录取通知书。也可使用学信网认证,但最好通过翻译软件翻译成英文或者申请英文证书。

Proof Type

按照如下表格选择证明类型

证明材料 证明类型
学生卡 Dated School ID
录取通知书 Dated class schedule for the semester
学信网认证 Other

###如果有其他类型的证明材料也可尝试。###

学校具体信息
如实填写相应英文名称即可。

最后点击processing等待结果吧,如果失败请务必按照文章步骤一步步检查并重试。

在这里插入图片描述

成功通过审核后,将收到邮件:

在这里插入图片描述

注意事项:不完善的说明

在这里插入图片描述

无法根据您在 2024 年 4 月 24 日提交的 @lightrain-a 信息来验证您的学术隶属关系。

  • 您使用的照片中的文字无法阅读。如果使用设备摄像头,请确保图像清晰易读。对于某些语言,您可能需要在英文翻译旁边捕获原始文档。
  • 请填写您的 GitHub 帐单信息,并填写您的全名,与您的学术隶属关系文档中显示的全名完全相同。您无需添加付款方式。在重新申请之前,您可能需要注销并重新登录 GitHub。如果您只有一个法定名称,请在名字和姓氏字段中输入该名称。
  • 您选择的图像似乎不包含您的学校名称。您的完整学校名称必须出现在您的文档中,而不仅仅是学校徽标。您可以将多个文档一起包含在内。如果您的官方文件不是英文的,那么您可以在英文翻译旁边拍摄原件。
  • 您的文件似乎没有包含证明当前学术隶属关系的日期。对于使用非标准日历的国家/地区,您可能需要在带有转换日期的日历旁边捕获原始文档。您可以在图像中包含多个文档,只要它们清晰易读即可。

一旦您解决了总结问题,请再次访问我们并重新申请。

有问题吗?加入 GitHub Education 社区以获取答案。

💖 GitHub 教育团队

三、Copilot

进入GitHub Copilot · Your AI pair programmer

点击start a free trial即可,github会根据你已拥有了学生包自动认证。

在这里插入图片描述

同时注意到,新的GitHub账号会提供30天的试用。

在这里插入图片描述

可以在设置中修改隐私条款】相关服务设置

在这里插入图片描述

四、在 Visual Studio Code 中安装 GitHub Copilot 扩展

参考:https://docs.github.com/en/copilot/using-github-copilot/getting-started-with-github-copilot?tool=vscode

4.1 安装 Copilot 插件

若要使用 GitHub Copilot,必须先安装 GitHub Copilot 扩展。

打开 VsCode 编辑器,点击左侧边栏的扩展图标(方块形状),在搜索栏中输入 “Copilot”。找到 “GitHub Copilot” 与 “GitHub Copilot Chat” 插件并点击安装按钮进行安装。

在 Visual Studio Code Marketplace 中,转到 GitHub Copilot 扩展页,然后单击“安装”。
在这里插入图片描述

4.2 配置 Copilot 插件(新安装)

将出现一个弹出窗口,要求打开 Visual Studio Code。单击“打开 Visual Studio Code”。

在 Visual Studio Code 的“扩展:GitHub Copilot”选项卡中,单击“安装”。

如果以前未在 GitHub 帐户中授权 Visual Studio Code,系统将提示你在 Visual Studio Code 中登录 GitHub。

如果之前已在 GitHub 上为帐户授权 Visual Studio Code,则将自动授权 GitHub Copilot。

如果未收到授权提示,请单击“Visual Studio Code”窗口底部面板中的铃铛图标。

带有 GitHub Copilot 图标的 Visual Studio Code 任务栏的屏幕截图。铃铛图标以深橙色勾勒出轮廓。
在浏览器中,GitHub 将请求 GitHub Copilot 的必要权限。若要批准这些权限,请单击“授权 Visual Studio Code”。

若要确认身份验证,请在 Visual Studio Code 中的“Visual Studio Code”对话框中单击“打开”。

4.3 换 Copilot 插件账号

在使用GithubCopilot插件时,可能使用的并非自己常用的github账号,因此需要在VSCode中切换Github账号

解决方案:
直接注销当前登录账号切换到对应的账号即可

在这里插入图片描述

欢迎大家添加好友,持续发放粉丝福利!

Read more

了解ASR(自动语音识别)和模型Whisper

ASR是自动语音识别技术,现代端到端的主流ASR架构为: 音频 → [预处理 → 神经网络编码 → 解码] → 文本                ↑                                           ↑            信号处理                          深度学习 Whisper 是由 OpenAI 于 2022 年发布的开源语音识别模型。它是一个基于 Transformer 架构的端到端模型,具有以下核心特点:多任务模型、多语言支持、多种格式、强鲁棒性和无需微调开箱即用。 一、ASR 音频输入与预处理一般通过ffmpeg与VAD配合完成 1、特征提取与编码 现在的ASR通常使用声学特征直接输入神经网络。 常见的声学特征有以下四种,但是现在一般直接使用神经网络自动学习特征,例如Conformer编码器就是神经网络组成的。 * MFCC(梅尔频率倒谱系数):13-40维 * 梅尔频谱(Mel-Spectrogram):80-128维   * 滤波器组(Filter Bank):40-80维 * 原

【TaskbarDelegate】屏蔽上滑返回桌面手势功能

一、需求描述 基于Android 14 平台,在应用界面中默认使用上滑手势会返回桌面,某些应用要求不能返回到桌面,需要屏蔽上滑手势。 二、需求分析 我们知道手势导航的底部导航横线的逻辑是在 SystemUI 的 NavigationBarView -> NavigationBar -> NavigationBarController -> TaskbarDelegate 等相关的类控制,在手势导航中上滑手势有 2 种功能: * 从屏幕底部向上滑动,即可进入主屏幕 * 从底部向上滑动、按住再松开,可切换应用 如果想要屏蔽,可以直接返回消费掉 InputEvent 事件,就不会走后续的流程了,我尝试在NavigationBarView 的 onInterceptTouchEvent 返回 true,但是只屏蔽了返回Home的功能,最近任务还是会启动。在 TaskbarDelegate 中有设置相关的 sys ui flag

Stable Diffusion ComfyUI整合包保姆级安装指南(含汉化+云主机配置)

Stable Diffusion ComfyUI:从零部署到高效协作的全栈实践 如果你已经玩过Stable Diffusion的WebUI,可能会觉得它像一间装修精美的厨房——所有工具都摆在明面上,按钮清晰,上手就能用。但当你真正想深入烹饪,调整火候的细微变化、尝试不同食材的预处理顺序时,那种“所见即所得”的界面反而成了一种限制。这时,ComfyUI出现了,它更像一个开放式的专业后厨,所有食材(模型)、厨具(节点)和烹饪流程(工作流)都清晰地铺开,由你亲手连接。这种基于节点的可视化编程方式,不仅让你对AI图像生成的每一步都了如指掌,更在排查问题、复现效果和实现复杂工作流时,带来了前所未有的灵活性和掌控感。 然而,从“精美厨房”迁移到“专业后厨”,第一道门槛往往是环境部署。尤其是在国内网络环境下,从GitHub克隆仓库、安装Python依赖、配置模型路径,每一步都可能遇到“连接超时”或“版本冲突”的拦路虎。本文旨在为你扫清这些障碍,提供一个从本地安装、汉化配置,

本地文件深度交互新玩法:Obsidian Copilot的深度开发

本地文件深度交互新玩法:Obsidian Copilot的深度开发

前言 当 “本地知识库管理” 撞上 “AI 智能分析”,会擦出怎样的火花?试想一下:你的 Obsidian 里存着多年积累的笔记、文档,却只能手动翻阅检索;而现在,一个插件 + 蓝耘 API,就能让这些 “静态文字” 瞬间 “活” 起来 —— 自动总结核心内容、智能回答专业疑问,甚至挖掘隐藏关联!今天,就带大家拆解 Obsidian 联动蓝耘 API 的全新玩法,看看如何让本地文件从 “信息仓库” 变身 “智能助手” 。 蓝耘API KEY的创建 先进行API的创建 先点击蓝耘进行一个正常的注册流程 进入到主页之后,我们点击上方的MaaS平台 进入到平台后我们可以看到很多的大模型 不仅仅是文本生成、音频理解、视频理解还是视频生成,都有对应的大模型 每个模型都有很详细的介绍以及价格示例,用过api调用的都可以看到这个价格还是比较贴近平民的 并且可以进行在线体验的,这里是先进行思考的,