IDEA接入DeepSeek最新教程Proxy AI(codeGpt) [2025版]

IDEA接入DeepSeek最新教程Proxy AI(codeGpt) [2025版]

IDEA引入DeepSeek
将 IntelliJ IDEA(JetBrains 开发的 Java 集成开发环境)与 DeepSeek(深度求索的技术能力)结合,通常涉及利用 AI 技术增强开发效率或扩展 IDE 功能,安装完成后,结合 IntelliJ IDEA 的开发者工具属性,可探索以下方向:

智能代码补全:基于 DeepSeek 的代码大模型(如 Code LLM)提供更精准的代码建议。

代码缺陷检测:利用 AI 识别潜在 Bug 或安全漏洞。

自动化文档生成:根据代码逻辑自动生成注释或 API 文档。

自然语言交互:通过对话式 AI(如 ChatGPT 风格)辅助开发者解决问题。

代码重构建议:基于大模型分析代码结构,推荐优化方案。

ProxyAI(之前称为CodeGPT)是一款由人工智能驱动的代码助手,旨在帮助您进行各种编程活动。它是GitHub Copilot、AI助手、Codiumate以及其他JetBrains插件的强大替代品。
可用模型列表: o3-mini, o1, gpt-4o, Claude Sonnet 3.5, DeepSeek R1和V3, Google Gemini 2.0(Pro, Flash, Thinking), Llama, Qwen 2.5,以及更多。 构建您自己的本地AI助手 ProxyAI是连接本地运行的LLM与JetBrains IDEs的领先开源扩展。

一、安装Proxy AI插件
打开IDEA中的插件,在目录File->settings->Plugins->marketplace市场。
搜索Proxy AI(原来是codeGpt),点击install安装(如果没有搜到,可以去找相应的插件进行安装)
安装成功后,重启IDEA。

4.安装完成后,在目录File->settings->Tools下面能看到CodeGPT,在这里配置deepseek相关信息。

二、配置DeepSeek的API

进入DeepSeek官网,点卡打开API开发平台

2.创建API key( DeepSeek API 文档)
选择API keys ,点击创建API key ,会生成一个密钥,复制即可

3.在idea中配置API key和deepseek的url

Custom OpenAi可以自定义选择自己的大模型,比如我们现在使用的deepseek,当然也可以选择其他的。左侧其他选型也是各种大模型。

第一步:配置deepseek中创建的API key.

第二步:配置对话模型chat Completions,如下:

1 粘贴URL:https://api.deepseek.com/chat/completions

2 将请求body的模型model改为:deepseek-chat

第三步:配置推理模型code Completions,如下:

1 勾选Enable code completions和Parse response as Chat Completions

2 FIM template 选择为 DeepSeek Coder 。

3 粘贴URL:https://api.deepseek.com/chat/completions

4 请求body的模型model改为:deepseek-reasoner

三、使用deepseek进行对话

此时,在右侧就有一个codeGPT的图标,打开后就能输入文字进行对话了,这种配置的大模型属于在线的,连接deepseek的官方api,有时候会有网络卡顿问题,多试几次。

四、常见问题

1.对话,显示Insufficient Balance(余额不足) ,这时候,才发现目前对接deepseek已经用不了,哦豁!!!
但是我找到另外可以或者免费deepseek的方式,可以参考下面这篇文章
免费的deepseek

2.那怎么办呢,我们其实还可以对接其他免费的大模型,或者使用目前codeGpt自带的,也可以自己本地部署deepseek,然后用ollama配置,可以参考B站DeepSeek R1接入IDEA实战

Read more

大模型基于llama.cpp量化详解

大模型基于llama.cpp量化详解

概述 llama.cpp 是一个高性能的 LLM 推理库,支持在各种硬件(包括 CPU 和 GPU)上运行量化后的大语言模型。本文档详细介绍如何使用 llama.cpp 将 HuggingFace 格式的模型转换为 GGUF 格式,并进行不同程度的量化。 GGUF 格式:GGUF(Georgi Gerganov Universal Format)是 llama.cpp 专门设计的模型文件格式,针对快速加载和保存模型进行了优化,支持单文件部署,包含加载模型所需的所有信息,无需依赖外部文件。 1.安装cmake CMake 是跨平台的构建工具,用于编译 llama.cpp 项目。 下载地址:https://cmake.org/download/ 安装建议:

零基础本地部署Stable Diffusion:无需魔法上网的完整避坑指南

1. 为什么选择本地部署Stable Diffusion? 最近AI绘画火得一塌糊涂,但很多在线平台要么收费贵,要么限制生成次数。本地部署最大的好处就是完全免费,想画多少张就画多少张,还能随心所欲地安装各种插件和模型。我刚开始玩的时候也纠结要不要本地部署,后来发现其实没想象中那么难,只要跟着步骤一步步来,小白也能搞定。 本地部署还有个好处是隐私性强。你的所有操作都在自己电脑上完成,不用担心作品被别人看到或利用。而且响应速度比在线平台快多了,不用排队等待,修改参数也能立即看到效果。我测试过,用RTX 3060显卡生成一张512x512的图片只要5-8秒,比很多在线平台快好几倍。 2. 安装前的准备工作 2.1 硬件配置检查 首先得看看你的电脑够不够格。显存是最关键的,建议至少4GB,2GB也能跑但会很卡。我有个朋友用GTX 1650(4G显存)跑得还挺流畅。查看显存很简单:任务管理器→性能→GPU,看"专用GPU内存"。 CPU倒不是特别重要,i5以上就够用。内存建议16GB,8GB勉强可以但容易爆内存。硬盘空间至少要留出20GB,因为模型文件都很大。

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程 目标:本文讲详细介绍多模态大模型使用llama-factory进行多模态模型微调(sft)的全部流程,以及微调后合并和工业落地部署方案。具体包括: 1. 环境安装部署 2. 数据集准备 3. 启动微调 4. 模型合并 5. 模型部署和请求方式(vllm部署) 示例模型: qwen2.5-vl-instruct qwen3-vl-instruct 环境安装 llama-factory环境准备 方式1 git直接下载 git clone --depth https://github.com/hiyouga/LLaMA-Factory.git 方式2 下载项目压缩包再解压 python环境安装 1. python虚拟环境创建 * conda create --name llama_env python=3.12 (默认已安装好anaconda或者minianaconda) * conda

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

本文链接地址 :https://blog.ZEEKLOG.net/weixin_47681965/article/details/158503719?spm=1001.2014.3001.5502, 转载请注明出处。 提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、