IntelliJ IDEA中GitHub Copilot完整使用教程:从安装到实战技巧

IntelliJ IDEA中GitHub Copilot完整使用教程:从安装到实战技巧

IntelliJ IDEA 中 AI 工具 Codex (GitHub Copilot) 完整使用教程

在 IntelliJ IDEA 中,Codex 的能力主要通过 GitHub Copilot 插件体现。它是目前最强大的 AI 编程助手,能够基于 OpenAI Codex 模型提供实时代码建议、业务逻辑实现以及复杂的重构支持。


一、 安装与环境配置

1. 插件安装
  1. 打开 IntelliJ IDEA,进入设置:File -> Settings (Windows) 或 IntelliJ IDEA -> Settings (Mac)。
  2. 在左侧菜单选择 Plugins,点击 Marketplace 标签。
  3. 搜索 “GitHub Copilot”,点击 Install
  4. 安装完成后,根据提示重启 IDE。
2. 账号授权
  1. 重启后,右下角会弹出状态栏图标。点击 Sign in to GitHub
  2. IDE 会提供一个 8 位设备代码并打开浏览器。
  3. 在 GitHub 授权页面输入代码,确认授权(需拥有 GitHub Copilot 订阅或试用权限)。
  4. 返回 IDE,看到右下角图标变为蓝色或正常状态即表示激活成功。

二、 核心功能使用指南

1. 智能代码补全 (Auto-Completion)

这是 Codex 最基础也是最强大的功能。当你输入代码或注释时,它会自动预测你的意图。

  • 触发方式:直接打字,或输入 // 注释描述功能。
  • 交互指令
    • Tab:接受全部建议代码。
    • Ctrl + Right Arrow (Windows) / Cmd + Right Arrow (Mac):逐词接受建议。
    • Alt + [Alt + ]:在多个生成的备选方案之间切换。
    • Esc:拒绝当前建议。
2. 注释驱动开发 (Comments-to-Code)

你可以通过编写详细的中文或英文注释,引导 Codex 生成完整的业务逻辑。

示例

// 编写一个方法:校验手机号格式,并使用正则表达式publicstaticbooleanisValidPhone(String phone){// Codex 将在此处自动生成正则匹配逻辑}
3. Copilot Chat (对话式编程)

除了在编辑器中补全,你还可以通过侧边栏的 Chat 面板进行交互。

  • 激活:点击 IDE 右侧边栏的 GitHub Copilot Chat 图标,或使用快捷键 Ctrl + Shift + i
  • 常用斜杠命令
    • /explain:选中一段代码,让 AI 解释其逻辑。
    • /tests:为当前方法自动生成单元测试(JUnit/TestNG)。
    • /fix:针对报错的代码片段,询问修复方案。
    • /simplify:请求 AI 简化复杂的代码逻辑。
4. 生成单元测试

选中一个类名或方法名,右键选择 Copilot -> Generate Tests。Codex 会根据类中的依赖自动使用 Mockito 或相关工具生成测试用例。


三、 进阶实战技巧

1. 提高 Context(上下文)感知

Codex 的准确度取决于它能看到的“上下文”。

  • 技巧:在开发时,保持与当前任务相关的其他文件(如 DTO、Repository、配置类)处于打开状态(Tabs)。Codex 会自动读取这些文件的结构,生成的代码会更符合你的项目规范。
2. 精准的 Prompt (提示词) 编写

如果生成的结果不符合预期,请细化你的注释:

  • 模糊// 保存用户信息
  • 精准// 使用 JPA 保存用户信息,如果邮箱已存在则抛出自定义异常 UserAlreadyExistsException
3. 快速生成样板代码

在 Java 开发中,Codex 可以极快地生成:

  • 复杂的正则表达式。
  • 常用的 Stream API 转换逻辑(如 List 转 Map)。
  • 标准的 Cron 表达式。
  • 通用的工具类(如日期格式化、MD5 加密)。

四、 常用快捷键汇总

功能WindowsmacOS
接受建议TabTab
显示下一个建议Alt + ]Option + ]
显示上一个建议Alt + [Option + [
手动触发建议Alt + \Option + \
打开 Copilot 窗口(展示10个方案)Ctrl + EnterCtrl + Enter
打开 Chat 窗口Ctrl + Shift + iCmd + Shift + i

五、 最佳实践与注意事项

  1. 代码审查:切记,AI 生成的代码可能存在逻辑漏洞或过时的 API。始终对生成的内容进行 Code Review。
  2. 隐私安全:避免在代码注释中输入真实的 API Key、密码或敏感的企业机密。
  3. 保持插件更新:GitHub 经常更新 Codex 模型以减少“幻觉”,建议定期检查插件更新。
  4. 风格统一:如果你已经在项目中定义了某种命名风格(如 order_no 而非 orderNo),Codex 通常会学习并模仿你的风格。

六、 常见问题排除

  • 图标变灰/红:通常是网络问题或登录过期,点击图标尝试 Logout 后重新 Login
  • 不显示补全:检查 Settings -> Languages & Frameworks -> GitHub Copilot,确认当前语言(如 Java)是否被禁用。
  • 快捷键冲突:如果 Tab 被其他插件占用,可以在 Keymap 设置中重新搜索 Copilot 并分配快捷键。

Read more

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

这两年,AI 工具层出不穷,但大多数产品还停留在“能回答、会生成”的阶段:帮你写一段话、搜一份资料、整理一个思路,真正到了执行层,还是得你自己坐回电脑前,一个软件一个软件地点、一项任务一项任务地做。 这也是很多人对 AI 的真实感受——它会说,但不一定真能干活。而 ToDesk 新上线的 ToClaw,想解决的正是这个问题。 一、ToClaw 是什么? ToClaw 是一款基于 OpenClaw 深度定制、并与远程控制运行时深度结合的 AI 助手。它最大的不同,不只是“懂你说什么”,而是能直接在你的电脑上执行操作。 你只需要一句话,它就可以在电脑端完成对应动作:打开软件、点击按钮、填写表单、拖拽文件、整理资料、生成表格、汇总信息……很多原本需要人守在电脑前操作的工作,现在都可以交给 ToClaw

AI辅助,两天实现一个IM系统?

AI辅助,两天实现一个IM系统?

前言         最近写项目的时候,有个项目中需要实现聊天系统 ,所以打算周末两天借助AI辅助进行开发,此篇文章说一下自己使用AI辅助开发的一些心得;其中会把完整的使用过程介绍一下。 后端:Claude Code 前端:Gemini 一、 架构设计         在设计 IM 系统时,要明确自己的核心目标,我们的核心目标是:实时性、可靠性、可扩展性。         在架构设计的时候其实我也请教了一下AI,有一说一都挺不错的,以下是统一话术各个AI的个人使用总结: 1.GPT 设计的比较完善清晰但是具体细节略少,整体来说还是挺靠谱的; 2.deepseek 说实话deepseek也挺好,虽然但是,我要的是整体架构设计它却给我实现一个demo(同一话术),也是笑不活了,请看VCR 反正就是前后端代码都帮你实现了,表也贴心的帮你实现了虽然不能直接用,哈哈哈;有一说一确实挺难绷的 3.Gemini         说实话,gemini确实有点东西,整体架构设计和技术上都挺好的,而且还会根据需求分析阶段性开发。 后面也试了其他AI我就不一一说明了。。。。。

什么是 AI Agent 中的 Skills?它有什么用?

什么是 AI Agent 中的 Skills?它有什么用?

👨‍⚕️主页: gis分享者 👨‍⚕️感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍⚕️收录于专栏:AI大模型原理和应用面试题 文章目录 * 一、🍀Skills * 1.1 ☘️概念 * 1.2 ☘️作用 * 二、🍀扩展知识 * 2.1 ☘️Skills 出现之前的痛点 * 2.2 ☘️Skills 的技术实现原理 * 2.3 ☘️Skills 在主流 AI 编程工具中的应用 * 2.4 ☘️Skills 的设计原则 * 三、🍀追问 一、🍀Skills 1.1 ☘️概念 Skills 就是给 AI Agent 写的操作手册,

一文熟悉新版llama.cpp使用并本地部署LLAMA

一文熟悉新版llama.cpp使用并本地部署LLAMA

0. 简介 关于UCloud(优刻得)旗下的compshare算力共享平台 UCloud(优刻得)是中国知名的中立云计算服务商,科创板上市,中国云计算第一股。 Compshare GPU算力平台隶属于UCloud,专注于提供高性价4090算力资源,配备独立IP,支持按时、按天、按月灵活计费,支持github、huggingface访问加速。 使用下方链接注册可获得20元算力金,免费体验10小时4090云算力 https://www.compshare.cn/?ytag=GPU_lovelyyoshino_LZEEKLOG_ZEEKLOG_display 最近是快到双十一了再给大家上点干货。去年我们写了一个大模型的系列,经过一年,大模型的发展已经日新月异。这一次我们来看一下使用llama.cpp这个项目,其主要解决的是推理过程中的性能问题。主要有两点优化: * llama.cpp 使用的是 C 语言写的机器学习张量库 ggml llama.cpp 提供了模型量化的工具 此项目的牛逼之处就是没有GPU也能跑LLaMA模型。llama.