AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot

简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。

它的工作原理:
它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。

对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格

3.1 GitHub Copilot 安装与使用

安装前的准备

在开始之前,你需要确保拥有以下条件:

  1. GitHub 账号:如果没有,请先去 GitHub 注册。
  2. 支持的 IDE:推荐使用 Visual Studio Code (VS Code),它也是最常用的前端开发环境。(同时也支持 Visual Studio、JetBrains 全家桶、Vim/Neovim 等)。
  3. 网络环境:由于 GitHub 服务在海外,建议确保网络环境稳定,能够访问 GitHub 服务。

步骤 1:申请 Copilot 订阅

Copilot 目前是付费服务(对学生和开源项目维护者免费),但 GitHub 通常提供 30 天的免费试用。

  1. 登录 GitHub:访问 github.com 并登录。
  2. 进入 Copilot 页面:访问 https://github.com/features/copilot 。
  3. 开始试用:点击页面上的 “Start your free trial”(开始免费试用)按钮。
  4. 确认付款信息
    • GitHub 会要求你设置付款方式(信用卡或 PayPal)。
    • 注意:试用期内不会扣费,你可以随时在设置中取消订阅以避免扣款。学生可通过 GitHub Student Developer Pack 申请免费使用。
  5. 授权完成:按照页面提示完成授权流程,等待几分钟后,你的账号就会获得 Copilot 的使用权限。

步骤 2:在 IDE 中安装插件(以 VS Code 为例)

这里以最流行的 VS Code 为例进行演示:

  1. 打开扩展商店
    • 启动 VS Code。
    • 点击左侧边栏的 “扩展” 图标(或者按下快捷键 Ctrl + Shift + X / Cmd + Shift + X)。
  2. 搜索插件
    • 在搜索框中输入 GitHub Copilot
    • 找到由 GitHub 发布的官方插件(图标通常是那个黑白相间的 Copilot Logo)。
  3. 安装插件
    • 点击 “Install”(安装)按钮。
  4. 登录授权
    • 安装完成后,VS Code 右下角通常会弹出一个通知,提示你需要登录。
    • 点击 “Sign in to GitHub Copilot”
    • 浏览器会自动跳转到 GitHub 的授权页面,点击 “Authorize GitHub Copilot Plugin”
    • 授权成功后,回到 VS Code,你会看到右下角提示“Copilot is ready”。

步骤 3:核心功能使用指南

安装完成后,你就可以开始使用了。Copilot 主要通过两种方式辅助你:行内代码补全 和 Copilot Chat 对话

1. 行内代码补全(最常用)

这是 Copilot 最基础也是最强大的功能。它会根据你当前的上下文,以灰色文字的形式在光标后预测代码

  • 基本操作
    1. 在编辑器中写代码(例如输入 function add(a, b) {)。
    2. 停顿片刻,你会看到灰色的代码建议(例如 return a + b;)。
    3. 如果你接受建议,请按下 Tab 键。
    4. 如果你不满意,请继续输入,或者按下 Esc 键忽略。
  • 多行建议
    • 有时 Copilot 会建议多行代码(整个函数或整个组件)。你可以一直按 Tab 键逐行采纳,或者按住 Ctrl + Enter (Mac: Cmd + Enter) 一次性采纳所有建议。
  • 触发建议(如果不自动出现)
    • 有时如果 AI 没反应,你可以手动按下 Ctrl + Enter (Mac: Cmd + Enter) 强制弹出一个包含多个建议的浮窗,你可以用键盘上下键选择。

2. Copilot Chat(对话式编程)

如果你安装了 GitHub Copilot Chat 插件(通常现在会捆绑或需额外安装),你还可以使用聊天功能。

  • 位置:在 VS Code 左侧边栏会出现一个 “Chat” 图标(通常是一个对话框形状)。
  • 使用方法
    1. 点击打开 Chat 窗口。
    2. 在输入框输入自然语言指令。
      • 例如:“解释一下这段代码的意思”(选中代码后)
      • 例如:“帮我写一个 React 的登录表单”
      • 例如:“帮我修复这个报错”
    3. 它会直接在对话框中回复你,甚至可以直接将代码插入到编辑器中。

3.2 常见问题 (FAQ)

  • Q: Copilot 是免费的吗?
    • A: 目前对个人用户收费(约 $10/月),但有 30 天免费试用。学生和某些知名开源项目的维护者可以申请免费资格。
  • Q: Copilot 生成的代码安全吗?
    • A: 极少数情况下可能会生成不安全或有漏洞的代码。切记:AI 生成的代码一定要经过 Code Review(人工审查)才能提交上线!
  • Q: 为什么安装后显示 “Not Authorized”?
    • A: 检查你的 GitHub 账号是否完成了 Copilot 试用流程,或者网络是否能连接到 GitHub 服务。

Read more

Qt Creator配置AI编程插件GitHub Copilot

Qt Creator配置AI编程插件GitHub Copilot

第一步:GitHub Copilot插件安装 QtCreator18.0为例,点击左侧Extensions菜单,在上方搜索栏搜索 GitHub Copilot, 然后点击右上角Active启动后重启QtCreator即可完成该工具安装. 第二步:copilot.vim 环境配置 去GitHub下载copilot.vim压缩包:copilot.vim。下载地址:https://github.com/github/copilot.vim 随后解压到自定义位置。 将其目录下.\dist\language-server.js地址填入设置的Path to language-serverjs项。 第三步:安装Node.js 去Node.js官网下载并安装node.js:node.js官网。 同样将node.exe地址链接到设置的Node.js path项。下载地址:https://nodejs.org/zh-cn 第四步:

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

GPT系列模型 一、ChatGPT 的本质 * 发布者:OpenAI(2022年11月30日) * 类型:聊天机器人模型,基于自然语言处理技术 * 核心能力:理解语言、生成对话、撰写邮件/文案/代码、翻译等 * 增长数据:2个月用户破1亿,日活约1300万 二、GPT 系列模型演进对比 模型发布时间参数量核心创新主要局限GPT-12018.061.17亿引入生成式预训练 + Transformer Decoder语言模型单向;需微调才能泛化GPT-22019.0215亿多任务学习 + Zero-shot 能力无监督能力仍有限GPT-32020.051750亿Few-shot 学习 + Sparse Attention成本高、长文本不稳定、内容不可控ChatGPT2022.11基于GPT-3引入 RLHF(人类反馈强化学习)服务不稳定、可能生成错误信息 三、核心技术点回顾 1. GPT-1 * 使用单向 Transformer Decoder(

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

一. 昇腾引领国产AI算力新时代 当生成式人工智能迈入规模化应用的深水区,大模型已从技术探索走向产业落地的关键节点,而算力作为支撑这一进程的核心基础设施,正面临着前所未有的双重挑战:一方面,以Llama、GPT系列为代表的大模型参数规模持续扩大,对算力的峰值性能、内存带宽、能效比提出了指数级增长的需求;另一方面,全球算力供给格局的不确定性,使得核心算力设施的国产化替代成为保障AI产业自主可控发展的战略刚需。 在此背景下,昇腾(神经网络处理器)作为国产高端AI芯片的核心代表,其技术成熟度、生态适配性与性能表现,直接关系到我国在全球AI算力竞争中的核心话语权。 昇腾自诞生以来,便承载着构建国产AI算力底座的战略使命,通过“芯片-框架-模型-应用”全栈式技术布局,打破了海外算力芯片在高端AI领域的垄断局面。从架构设计来看,昇腾采用面向AI计算的专用架构,集成了大量AI计算单元与高效内存管理模块,能够针对性解决大模型训练与推理过程中的数据吞吐瓶颈。 本次测评的核心硬件平台基于昇腾910B 构建,其为大模型的高速推理提供了坚实的硬件基础; 1.什么是昇腾 昇腾 (Ascend)

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

引言 2025 年 6 月 30 日,百度文心大模型 4.5 系列正式开源,并首发于 GitCode 平台!这一重磅消息在 AI 领域掀起了不小的波澜。作为国内最早布局大模型研发的企业之一,百度所推出的文心大模型目前已跻身国内顶级大模型行列,此次开源无疑将对各行各业产生深远影响,进一步加速大模型的发展进程。接下来,就让我们一同探究文心一言 4.5 开源版本地化部署的表现与潜力。 文章目录 * 引言 * 一、文心大模型 ERNIE 4.5 开源介绍 * 1.1 开源版本介绍 * 1.1 ERNIE 4.5 的主要特点和区别 * 二、文心ERNIE 4.5 技术解析 * 2.1