IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

📊 引言

近年来,AI 编程助手已成为开发者的高效工具,它们可以加速代码编写、优化代码结构,并提供智能提示。本文介绍如何在 IntelliJ IDEA 中集成 DeepSeek、GPT-4o Mini、GitHub Copilot,并探索 本地 AI 编程助手 方案,帮助开发者在不同场景下提升编程效率。


👨‍💻 1. GitHub Copilot 集成

Copilot 是由 GitHub 和 OpenAI 推出的 AI 代码补全工具,它可以根据上下文智能生成代码片段。
GitHub Copilot 免费版 vs 付费版对比。

功能免费版付费版
代码补全每月 2,000 次代码补全建议无限制代码建议
Copilot Chat每月 50 条聊天消息无限制聊天消息
AI 模型选择可选择 Claude 3.5 Sonnet 或 GPT-4o额外提供 o1-preview 和 o1-mini 模型
跨文件编辑支持支持
Copilot 扩展生态系统访问支持支持
拉取请求摘要不支持支持
组织范围的策略管理不支持支持
审核日志不支持支持
增加的 GitHub 模型速率限制不支持支持
Copilot 知识库不支持支持
大语言模型微调不支持支持

1.1 安装 GitHub Copilot 插件

  1. 打开 IntelliJ IDEA,进入 File > Settings(Windows)或 Preferences(Mac)。
  2. Plugins 搜索 GitHub Copilot
  3. 点击 Install 并重启 IDEA。
在这里插入图片描述

1.2 配置 GitHub Copilot

  1. 进入 Settings > GitHub Copilot,登录 GitHub 账户。
  2. 启用 Copilot SuggestionsCopilot Chat
  3. 在代码编辑器中尝试输入 /** 或函数定义或者注释,Copilot 会自动补全。
在这里插入图片描述

需要个人 Github 账号开启 Copilot,插件下载完成后按照指引进行登录 Github 并进行功能授权验证,验证完成后即可体验 Github Copilot。

1.3 Copilot 代码辅助示例

代码自动补全(通过注释理解我们需要写的代码逻辑进行补全)。

在这里插入图片描述


可选择指定代码文件点击 Copilot Chat 进行对话代码推理分析,优化我们的代码或者帮我们完成描述的需求。

请添加图片描述


📢 IntelliJ IDEA 接入 AI 编程助手 Github Copilot 安装部署操作详细视频已更新


🤖 2. DeepSeek 集成

DeepSeek 是国产 AI 编程助手,支持类代码补全,具备更强的中文理解能力。DeepSeek 需要通过 API 方式接入或本地部署。这里介绍一款插件 CodeGPT,一款人工智能代码助手,已经支持集成市面上常见的大模型,我们通过它接入 DeepSeek。

2.1 安装 CodeGPT 插件

  1. 在 IDEA 插件市场 搜索 CodeGPT
  2. 安装插件并重启。

2.2 配置 API Key 或本地部署

如果使用本地部署,需要运行本地模型,并配置请求地址(具体步骤可参考【DeepSeek + Ollama 本地部署全流程】),下面主要演示 API Key 配置场景。

1.进入 Settings > Tools > CodeGPT > Providers,选择 Custom OpenAI

在这里插入图片描述


2.配置 Custom OpenAI,选择 OpenAI(DeepSeek接口有考虑 OpenAI 兼容,所有大致参数可不变),输入DeepSeek的 API Key(可从 DeepSeek API 官网获取)。

在这里插入图片描述


填写 DeepSeek 上创建的 API Key。

在这里插入图片描述


3.通过 Custom OpenAI 这种方式需要手动填写 DeepSeek API 地址,可以参考官方文档:https://api-docs.deepseek.com/zh-cn/

在这里插入图片描述


按照官网对应的URL进行填写:https://api.deepseek.com/chat/completions

在这里插入图片描述


注意请求的 Headers 可不用变更,需要将 Body 中的 model 修改为:deepseek-reasoner,保存即可。
deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model=‘deepseek-chat’ 即可调用 DeepSeek-V3。
deepseek-reasoner 是 DeepSeek 最新推出的推理模型 DeepSeek-R1。通过指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1。

在这里插入图片描述


注意由于当前DeepSeek现在已经停止API接口服务充值,新用户需要等待后续恢复之后再尝试使用。(现在已经恢复充值,大家可以去体验了)
📢 IntelliJ IDEA 接入 DeepSeek R1/V3 安装部署操作详细视频已更新

🛠️ 3. GPT-4o Mini 集成

GPT-4o Mini 是 OpenAI 推出的轻量级 GPT-4o 版本,通过 CodeGPT 插件接入 IntelliJ IDEA,并且是 免费 使用的(每月有次数限制)。

3.1 安装 CodeGPT 插件

  1. 在 IDEA 插件市场 搜索 CodeGPT
  2. 安装插件并重启。

3.2 配置 GPT-4o Mini

  1. 进入 Settings > Tools > CodeGPT > Providers,选择 CodeGPT。
  2. 填写 CodeGPT 的 API Key (CodeGPT官网)

Chat 模型选择 GPT-4o Mini 。启用 Enable Code AssistantEnable code completions 选项。

在这里插入图片描述

3.3 GPT-4o Mini 智能分析代码示例

使用后觉得效果很不错。

在这里插入图片描述

🔄 4. AI 代码助手对比分析

工具特点适用场景
GitHub Copilot云端 AI 代码补全适合日常开发,智能推荐代码
DeepSeek强中文理解能力,需 API适合国内开发者,支持 API 调用
GPT-4o Mini免费使用,通过 CodeGPT 插件接入适合初学者或轻量 AI 辅助
Ollama + DeepSeek本地模型运行适合私有部署,保护代码隐私

📈 总结

本文介绍了 IntelliJ IDEA 接入 AI 编程助手 的多种方式,包括 GitHub Copilot、DeepSeek、GPT-4o Mini,以及 本地 AI 部署方案。开发者可根据 需求、安全性、网络环境 选择合适的 AI 助手。

如果你有更好的 AI 代码助手推荐,欢迎在评论区交流!


🌟 你的支持是我持续创作的动力,欢迎点赞、收藏、分享!

Read more

AMD显卡Vulkan兼容性深度解析:5步解决llama.cpp部署难题

AMD显卡Vulkan兼容性深度解析:5步解决llama.cpp部署难题 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 在AMD显卡上部署llama.cpp时,Vulkan后端的兼容性问题常常成为技术障碍。本文将通过系统化的诊断流程和实用的解决方案,帮助你彻底攻克这一技术难点。 🚨 问题识别:AMD显卡的典型症状 当你遇到以下任一情况时,很可能正面临Vulkan兼容性问题: * 启动崩溃:程序初始化阶段直接退出,控制台输出"vkCreateInstance failed"错误 * 进度停滞:模型加载卡在"Initializing Vulkan backend"阶段 * 性能异常:

DeepSeek-R1-Distill-Llama-8B快速部署实用指南

DeepSeek-R1-Distill-Llama-8B快速部署实用指南 【免费下载链接】DeepSeek-R1-Distill-Llama-8B开源项目DeepSeek-RAI展示前沿推理模型DeepSeek-R1系列,经大规模强化学习训练,实现自主推理与验证,显著提升数学、编程和逻辑任务表现。我们开放了DeepSeek-R1及其精简版,助力研究社区深入探索LLM推理能力。【此简介由AI生成】 项目地址: https://ai.gitcode.com/hf_mirrors/deepseek-ai/DeepSeek-R1-Distill-Llama-8B 还在为复杂的AI模型部署流程而烦恼吗?想要在自己的设备上快速体验DeepSeek-R1-Distill-Llama-8B模型的强大推理能力?本指南将带你从零开始,在30分钟内完成这个高性能推理模型的完整部署。作为DeepSeek-R1系列的轻量化版本,该模型在保持出色推理能力的同时,实现了在消费级硬件上的高效运行。 部署前准备:环境配置与硬件检查 系统环境快速配置 部署DeepSeek-R1-Distill-Llama-8

2026年Midjourney AI 图像生成器使用教程详解

2026年Midjourney AI 图像生成器使用教程详解

Midjourney 是一款领先的 AI 图像生成工具,用户只需输入简单的文本描述(提示词),即可快速生成高质量、富有艺术感的图像。它主要通过 Discord 平台操作,无需本地安装,但需要订阅付费计划。本文将系统介绍 Midjourney 的核心功能、详细使用教程、价格方案以及提升出图效果的实用技巧,适合设计师、内容创作者和 AI 绘画新手阅读。 一、什么是 Midjourney? Midjourney 是一个由独立研究实验室开发的人工智能图像生成程序,能够根据用户输入的文字描述生成数字图像。它通过深度学习模型理解自然语言,并将其转化为细节丰富、风格多样的视觉作品。 由于其出色的艺术表现力和视觉冲击力,Midjourney 已成为设计师、插画师、品牌创意人员以及 AI 爱好者广泛使用的工具之一。 Midjourney 核心特点 * 文本生成图像:将抽象想法直接转化为可视画面 * 高艺术质量:在光影、构图、风格化方面尤为出色 * 云端运行:通过 Discord 操作,

Stable-Diffusion-v1-5-archive基础教程:Prompt/Negative Prompt参数精讲

Stable-Diffusion-v1-5-archive基础教程:Prompt/Negative Prompt参数精讲 你是不是也遇到过这种情况:用Stable Diffusion生成图片,明明输入了“一只可爱的猫”,结果出来的却是只奇形怪状的“猫科生物”?或者想画个“阳光下的海滩”,结果画面却阴沉得像世界末日? 别急着怀疑自己的艺术天赋,问题很可能出在提示词上。今天,我们就来彻底搞懂Stable Diffusion v1.5 Archive这个经典模型里,最核心也最让人头疼的两个参数:Prompt(正向提示词) 和 Negative Prompt(负向提示词)。 这篇文章不讲复杂的原理,只讲你能立刻用上的方法。我会用大白话告诉你,这两个参数到底是什么、怎么用、有哪些坑要避开。看完之后,你就能像老司机一样,精准地“指挥”AI画出你想要的画面。 1. 先认识一下我们的“画师”:Stable Diffusion v1.5 Archive 在开始“指挥”