IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

📊 引言

近年来,AI 编程助手已成为开发者的高效工具,它们可以加速代码编写、优化代码结构,并提供智能提示。本文介绍如何在 IntelliJ IDEA 中集成 DeepSeek、GPT-4o Mini、GitHub Copilot,并探索 本地 AI 编程助手 方案,帮助开发者在不同场景下提升编程效率。


👨‍💻 1. GitHub Copilot 集成

Copilot 是由 GitHub 和 OpenAI 推出的 AI 代码补全工具,它可以根据上下文智能生成代码片段。
GitHub Copilot 免费版 vs 付费版对比。

功能免费版付费版
代码补全每月 2,000 次代码补全建议无限制代码建议
Copilot Chat每月 50 条聊天消息无限制聊天消息
AI 模型选择可选择 Claude 3.5 Sonnet 或 GPT-4o额外提供 o1-preview 和 o1-mini 模型
跨文件编辑支持支持
Copilot 扩展生态系统访问支持支持
拉取请求摘要不支持支持
组织范围的策略管理不支持支持
审核日志不支持支持
增加的 GitHub 模型速率限制不支持支持
Copilot 知识库不支持支持
大语言模型微调不支持支持

1.1 安装 GitHub Copilot 插件

  1. 打开 IntelliJ IDEA,进入 File > Settings(Windows)或 Preferences(Mac)。
  2. Plugins 搜索 GitHub Copilot
  3. 点击 Install 并重启 IDEA。
在这里插入图片描述

1.2 配置 GitHub Copilot

  1. 进入 Settings > GitHub Copilot,登录 GitHub 账户。
  2. 启用 Copilot SuggestionsCopilot Chat
  3. 在代码编辑器中尝试输入 /** 或函数定义或者注释,Copilot 会自动补全。
在这里插入图片描述

需要个人 Github 账号开启 Copilot,插件下载完成后按照指引进行登录 Github 并进行功能授权验证,验证完成后即可体验 Github Copilot。

1.3 Copilot 代码辅助示例

代码自动补全(通过注释理解我们需要写的代码逻辑进行补全)。

在这里插入图片描述


可选择指定代码文件点击 Copilot Chat 进行对话代码推理分析,优化我们的代码或者帮我们完成描述的需求。

请添加图片描述


📢 IntelliJ IDEA 接入 AI 编程助手 Github Copilot 安装部署操作详细视频已更新


🤖 2. DeepSeek 集成

DeepSeek 是国产 AI 编程助手,支持类代码补全,具备更强的中文理解能力。DeepSeek 需要通过 API 方式接入或本地部署。这里介绍一款插件 CodeGPT,一款人工智能代码助手,已经支持集成市面上常见的大模型,我们通过它接入 DeepSeek。

2.1 安装 CodeGPT 插件

  1. 在 IDEA 插件市场 搜索 CodeGPT
  2. 安装插件并重启。

2.2 配置 API Key 或本地部署

如果使用本地部署,需要运行本地模型,并配置请求地址(具体步骤可参考【DeepSeek + Ollama 本地部署全流程】),下面主要演示 API Key 配置场景。

1.进入 Settings > Tools > CodeGPT > Providers,选择 Custom OpenAI

在这里插入图片描述


2.配置 Custom OpenAI,选择 OpenAI(DeepSeek接口有考虑 OpenAI 兼容,所有大致参数可不变),输入DeepSeek的 API Key(可从 DeepSeek API 官网获取)。

在这里插入图片描述


填写 DeepSeek 上创建的 API Key。

在这里插入图片描述


3.通过 Custom OpenAI 这种方式需要手动填写 DeepSeek API 地址,可以参考官方文档:https://api-docs.deepseek.com/zh-cn/

在这里插入图片描述


按照官网对应的URL进行填写:https://api.deepseek.com/chat/completions

在这里插入图片描述


注意请求的 Headers 可不用变更,需要将 Body 中的 model 修改为:deepseek-reasoner,保存即可。
deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model=‘deepseek-chat’ 即可调用 DeepSeek-V3。
deepseek-reasoner 是 DeepSeek 最新推出的推理模型 DeepSeek-R1。通过指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1。

在这里插入图片描述


注意由于当前DeepSeek现在已经停止API接口服务充值,新用户需要等待后续恢复之后再尝试使用。(现在已经恢复充值,大家可以去体验了)
📢 IntelliJ IDEA 接入 DeepSeek R1/V3 安装部署操作详细视频已更新

🛠️ 3. GPT-4o Mini 集成

GPT-4o Mini 是 OpenAI 推出的轻量级 GPT-4o 版本,通过 CodeGPT 插件接入 IntelliJ IDEA,并且是 免费 使用的(每月有次数限制)。

3.1 安装 CodeGPT 插件

  1. 在 IDEA 插件市场 搜索 CodeGPT
  2. 安装插件并重启。

3.2 配置 GPT-4o Mini

  1. 进入 Settings > Tools > CodeGPT > Providers,选择 CodeGPT。
  2. 填写 CodeGPT 的 API Key (CodeGPT官网)

Chat 模型选择 GPT-4o Mini 。启用 Enable Code AssistantEnable code completions 选项。

在这里插入图片描述

3.3 GPT-4o Mini 智能分析代码示例

使用后觉得效果很不错。

在这里插入图片描述

🔄 4. AI 代码助手对比分析

工具特点适用场景
GitHub Copilot云端 AI 代码补全适合日常开发,智能推荐代码
DeepSeek强中文理解能力,需 API适合国内开发者,支持 API 调用
GPT-4o Mini免费使用,通过 CodeGPT 插件接入适合初学者或轻量 AI 辅助
Ollama + DeepSeek本地模型运行适合私有部署,保护代码隐私

📈 总结

本文介绍了 IntelliJ IDEA 接入 AI 编程助手 的多种方式,包括 GitHub Copilot、DeepSeek、GPT-4o Mini,以及 本地 AI 部署方案。开发者可根据 需求、安全性、网络环境 选择合适的 AI 助手。

如果你有更好的 AI 代码助手推荐,欢迎在评论区交流!


🌟 你的支持是我持续创作的动力,欢迎点赞、收藏、分享!

Read more

Flutter 组件 http_requests 适配鸿蒙 HarmonyOS 实战:极简网络请求,构建边缘端轻量级 RESTful 通讯架构

Flutter 组件 http_requests 适配鸿蒙 HarmonyOS 实战:极简网络请求,构建边缘端轻量级 RESTful 通讯架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 http_requests 适配鸿蒙 HarmonyOS 实战:极简网络请求,构建边缘端轻量级 RESTful 通讯架构 前言 在鸿蒙(OpenHarmony)生态迈向多端协同、涉及大量轻量级 IOT 设备(如智能穿戴、工业传感器)及微服务透传的背景下,如何实现快速、低开销的 HTTP 通讯,已成为决定应用“响应敏捷度”的关键工程要素。在鸿蒙设备这类强调内存精简与极速启动的环境下,如果应用依然无差别地引入像 Dio 这种包含复杂拦截器、适配器及多重缓存逻辑的“重型网络航母”,由于由于框架初始化开销大、内存足迹(Memory Footprint)偏深,极易由于由于“过度封装”导致边缘设备主线程的瞬间负载过高。 我们需要一种能够剥离样板代码、支持一键 JSON

【OpenClaw -07】OpenClaw 记忆系统:三层记忆架构与 Daily Notes 机制

【OpenClaw -07】OpenClaw 记忆系统:三层记忆架构与 Daily Notes 机制

OpenClaw 记忆系统:三层记忆架构与 Daily Notes 机制 标签:OpenClaw、记忆架构、RAG、Embedding、上下文管理、长期记忆 前言:记忆是 Agent 的"状态壁垒" 在构建生产级 AI Agent 时,一个常被低估的架构难题是状态持久化。无状态的 LLM 调用虽然简单,但无法形成累积性的用户理解;而粗暴的全量历史拼接又很快会触达 Token 上限。OpenClaw 的记忆系统通过分层存储架构与智能归档机制,在上下文窗口限制与长期记忆能力之间建立了工程化的平衡。 本文将从架构实现角度,拆解 OpenClaw 的三层记忆模型、Daily Notes 持久化机制、语义检索配置策略以及多会话隔离原则,帮助开发者设计出既具备持续学习能力、又符合隐私合规要求的记忆方案。 一、三层记忆模型:分层存储的工程哲学 OpenClaw 采用分层越界(

Rust与Redis数据库开发实战:构建高性能会话管理系统

Rust与Redis数据库开发实战:构建高性能会话管理系统

Rust与Redis数据库开发实战:构建高性能会话管理系统 一、引言 💡Redis是一款高性能的内存数据库,它支持多种数据结构,包括字符串、哈希、列表、集合、有序集合等,具有读写速度快、内存占用少、跨平台等特点,非常适合开发缓存、消息队列、会话管理、实时数据分析等应用。 Rust语言以其内存安全、高性能和良好的工具链支持,成为开发Redis应用的理想选择。Rust生态系统中提供了多个优秀的Redis库,其中redis-rs是最成熟、最流行的一个。redis-rs提供了安全、易用的API,支持Redis的全部功能,包括事务处理、管道操作、发布订阅等。 二、开发环境搭建 2.1 安装Redis Redis通常已经预装在大多数操作系统中,你可以通过以下命令检查是否安装: # 检查Redis版本 redis-cli --version 如果没有安装,可以通过以下命令安装: macOS # 使用Homebrew安装 brew install redis # 启动Redis服务 brew services

RPC魔法揭秘:从原理到BRPC实战,用C++玩转分布式通信

RPC魔法揭秘:从原理到BRPC实战,用C++玩转分布式通信

文章目录 * 本篇摘要 * 一.什么是rpc * 简单理解 * 核心特点 * RPC 工作原理 * 常见 RPC 框架 * 典型使用场景 * 二.BRPC介绍 * 是什么? * 比gRPC强在哪? * 三.基于brpc实现简单的服务调用 * brpc安装教程 * 简单实现客户端向brpc服务端口请求服务完成应答过程(以echo回显为例) * 测试效果 * 代码汇总 * 四.封装每个服务的channels及所有服务管理者 * 五.基于etcd实现服务上下线监控来完成brpc服务调用 * 测试效果 * 代码汇总 * 六.本篇小结 本篇摘要 本文从RPC核心概念出发,阐释其“透明远程调用”的本质与工作原理,对比主流框架后聚焦百度开源的C++高性能RPC框架BRPC,详解其安装、Echo服务示例代码(含客户端/服务端实现),并延伸介绍基于ETCD的服务注册发现与信道管理封装,完整呈现分布式通信方案落地过程。 一.什么是rpc 简单理解 RPC(远程过程调用)就是让程序调用