AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot

简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。

它的工作原理:
它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。

对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格

3.1 GitHub Copilot 安装与使用

安装前的准备

在开始之前,你需要确保拥有以下条件:

  1. GitHub 账号:如果没有,请先去 GitHub 注册。
  2. 支持的 IDE:推荐使用 Visual Studio Code (VS Code),它也是最常用的前端开发环境。(同时也支持 Visual Studio、JetBrains 全家桶、Vim/Neovim 等)。
  3. 网络环境:由于 GitHub 服务在海外,建议确保网络环境稳定,能够访问 GitHub 服务。

步骤 1:申请 Copilot 订阅

Copilot 目前是付费服务(对学生和开源项目维护者免费),但 GitHub 通常提供 30 天的免费试用。

  1. 登录 GitHub:访问 github.com 并登录。
  2. 进入 Copilot 页面:访问 https://github.com/features/copilot 。
  3. 开始试用:点击页面上的 “Start your free trial”(开始免费试用)按钮。
  4. 确认付款信息
    • GitHub 会要求你设置付款方式(信用卡或 PayPal)。
    • 注意:试用期内不会扣费,你可以随时在设置中取消订阅以避免扣款。学生可通过 GitHub Student Developer Pack 申请免费使用。
  5. 授权完成:按照页面提示完成授权流程,等待几分钟后,你的账号就会获得 Copilot 的使用权限。

步骤 2:在 IDE 中安装插件(以 VS Code 为例)

这里以最流行的 VS Code 为例进行演示:

  1. 打开扩展商店
    • 启动 VS Code。
    • 点击左侧边栏的 “扩展” 图标(或者按下快捷键 Ctrl + Shift + X / Cmd + Shift + X)。
  2. 搜索插件
    • 在搜索框中输入 GitHub Copilot
    • 找到由 GitHub 发布的官方插件(图标通常是那个黑白相间的 Copilot Logo)。
  3. 安装插件
    • 点击 “Install”(安装)按钮。
  4. 登录授权
    • 安装完成后,VS Code 右下角通常会弹出一个通知,提示你需要登录。
    • 点击 “Sign in to GitHub Copilot”
    • 浏览器会自动跳转到 GitHub 的授权页面,点击 “Authorize GitHub Copilot Plugin”
    • 授权成功后,回到 VS Code,你会看到右下角提示“Copilot is ready”。

步骤 3:核心功能使用指南

安装完成后,你就可以开始使用了。Copilot 主要通过两种方式辅助你:行内代码补全 和 Copilot Chat 对话

1. 行内代码补全(最常用)

这是 Copilot 最基础也是最强大的功能。它会根据你当前的上下文,以灰色文字的形式在光标后预测代码

  • 基本操作
    1. 在编辑器中写代码(例如输入 function add(a, b) {)。
    2. 停顿片刻,你会看到灰色的代码建议(例如 return a + b;)。
    3. 如果你接受建议,请按下 Tab 键。
    4. 如果你不满意,请继续输入,或者按下 Esc 键忽略。
  • 多行建议
    • 有时 Copilot 会建议多行代码(整个函数或整个组件)。你可以一直按 Tab 键逐行采纳,或者按住 Ctrl + Enter (Mac: Cmd + Enter) 一次性采纳所有建议。
  • 触发建议(如果不自动出现)
    • 有时如果 AI 没反应,你可以手动按下 Ctrl + Enter (Mac: Cmd + Enter) 强制弹出一个包含多个建议的浮窗,你可以用键盘上下键选择。

2. Copilot Chat(对话式编程)

如果你安装了 GitHub Copilot Chat 插件(通常现在会捆绑或需额外安装),你还可以使用聊天功能。

  • 位置:在 VS Code 左侧边栏会出现一个 “Chat” 图标(通常是一个对话框形状)。
  • 使用方法
    1. 点击打开 Chat 窗口。
    2. 在输入框输入自然语言指令。
      • 例如:“解释一下这段代码的意思”(选中代码后)
      • 例如:“帮我写一个 React 的登录表单”
      • 例如:“帮我修复这个报错”
    3. 它会直接在对话框中回复你,甚至可以直接将代码插入到编辑器中。

3.2 常见问题 (FAQ)

  • Q: Copilot 是免费的吗?
    • A: 目前对个人用户收费(约 $10/月),但有 30 天免费试用。学生和某些知名开源项目的维护者可以申请免费资格。
  • Q: Copilot 生成的代码安全吗?
    • A: 极少数情况下可能会生成不安全或有漏洞的代码。切记:AI 生成的代码一定要经过 Code Review(人工审查)才能提交上线!
  • Q: 为什么安装后显示 “Not Authorized”?
    • A: 检查你的 GitHub 账号是否完成了 Copilot 试用流程,或者网络是否能连接到 GitHub 服务。

Read more

统信 UOS V2500 服务器 | OpenClaw AI Agent 全流程安装部署手册

一、文档概述 1.1 文档目的 本文档详细阐述在统信 UOS 服务器操作系统中安装、部署及初始化配置 OpenClaw 的全流程,为运维人员及开发人员可落地的操作指南,确保 OpenClaw 稳定部署并正常发挥其 AI 助手核心能力。 1.2 OpenClaw 简介 OpenClaw 是一款本地 AI Agent 工具,前身为 Clawdbot,经 moltbot 阶段迭代优化,具备高主动性和强系统底层操作能力。核心功能包括执行 Shell 命令、自动化提交 Git PR、管理数据库,支持对接 Telegram、WhatsApp 等主流通讯应用;其 “Skills” 插件机制可按需扩展功能,默认本地部署模式,兼容 Anthropic、OpenAI

10 分钟搭建专属 AI Agent:从零到落地的全流程实操方法论

10 分钟搭建专属 AI Agent:从零到落地的全流程实操方法论

在生成式 AI 全面普及的今天,AI Agent 早已不是互联网大厂、算法工程师的专属玩具,也不是需要动辄数万行代码、复杂分布式架构才能落地的黑科技。恰恰相反,只要你能写清楚一份基础的工作清单,就能在 10 分钟内搭建出一个能真正为你节省数百小时重复劳动的 AI Agent。 很多人对 AI Agent 的认知陷入了误区:总想着做一个无所不能的通用智能体,最终却因为需求模糊、流程复杂而半途而废。但 AI Agent 的核心价值,从来不是复刻一个通用大模型,而是解决一个具体、重复、有明确标准的工作流。本文将基于完整的 9 步落地框架,从需求定位到上线测试,全流程拆解 AI Agent 的搭建逻辑,哪怕是零代码基础,也能跟着步骤完成属于自己的第一个可落地 AI Agent。 一、第一步:锁定一个「无聊重复的工作」——AI Agent 落地的核心前提

AI时代人人都是产品经理:原著重读,《人人都是产品经理》的核心内核,从未过时

AI时代人人都是产品经理:原著重读,《人人都是产品经理》的核心内核,从未过时

从AI产品视角重读《人人都是产品经理》:经典内核的当代价值 在AI产品快速迭代的当下,很多从业者容易陷入"技术优先"的误区,忽略产品的底层逻辑。重读《人人都是产品经理》会发现,书中提出的核心框架并未过时,反而能为AI产品的设计、落地提供更扎实的底层支撑。本文将结合AI产品的特性,拆解书中的核心内核及其在AI时代的实践路径。 一、经典内核的重新解读:AI产品的底层逻辑 1.1 产品的本质:解决真实需求 书中核心观点明确:产品的本质是解决用户的真实需求,而非技术的堆砌。这一点在AI产品中尤为关键。当前很多AI产品陷入"炫技"误区,过度强调模型参数、算法精度,却忽略用户的核心痛点。 * 真实需求的判断标准:需求需具备普遍性、紧迫性、可支付性三个特征。AI产品需避免为了使用AI而创造伪需求,例如在不需要个性化推荐的场景强行引入大模型,反而增加用户操作成本。 * AI时代的需求挖掘:可结合大模型的语义分析能力,通过用户对话、行为数据的深度挖掘,识别用户未被满足的潜在需求,而非依赖传统的问卷、

AMD AI Max+ 395 CPU 本地大模型推理性能评测报告

AMD AI Max+ 395 CPU 本地大模型推理性能评测报告

引言 近年来,随着人工智能(AI)大模型在自然语言处理、代码生成及知识问答等领域的广泛应用,硬件平台的计算性能面临着前所未有的挑战。为了深入探索新一代AI推理硬件的潜力,我们针对搭载AMD AI Max+ 395 CPU的零刻GTR9迷你主机进行了一系列严格的大模型推理速度测试。 本次评测旨在分析不同参数规模的模型在本地环境下的实际运行表现。这些数据不仅能为开发者和AI爱好者选择合适的硬件提供决策依据,也为DFRobot未来可能推出的基于AMD AI Max+ 395 CPU的单板计算机(SBC)提供了关键的性能参考。 测试配置 * 硬件平台: 零刻 (MINISFORUM) GTR9 迷你主机 * 核心组件: AMD AI Max+ 395 CPU * 任务类型: 本地大语言模型推理 * 性能指标: Tokens/s (每秒生成Token数) — 该数值越高,代表推理速度越快。 测试问题集 为了全面评估模型性能,我们设计了涵盖多种任务类型的标准化问题: 1. 综合能力: “你是谁?请详细介绍一下你能干什么。” 2.