IDEA 创建 Spring Boot Web 项目完整教程

一、新建 Spring Boot 项目

1. 打开新建项目窗口

  • 打开 IntelliJ IDEA → 点击 新建项目(或从欢迎页选择 New Project
  • 在左侧生成器中选择 Spring Boot

  •          截图如下
选项填写内容说明
服务器 URLstart.spring.ioSpring 官方初始化地址
名称demo项目名
位置D:\idea项目存放路径(建议不要含中文 / 空格)
语言Java开发语言
类型Maven项目构建工具
org.example项目组织标识
工件demo项目模块名
软件包名称com.example.demo根包名
JDK21 Oracle OpenJDK 21.0.8你的 JDK 版本
Java17源码兼容版本(Spring Boot 4.0.3 推荐 Java 17+)
打包Jar可执行 Jar 包(Spring Boot 推荐)
配置Properties配置文件格式

       点击 下一步 (N) 进入依赖选择页面。

二、选择 Spring Web 依赖

1. 选择 Spring Boot 版本

  • Spring Boot 版本:4.0.3(保持默认即可)

2. 添加 Web 依赖

  • 在左侧依赖列表中展开 Web 分类
  • 勾选 Spring Web(右侧会显示依赖说明:用于构建 Web/RESTful 应用,内置 Tomcat 容器)
  • 确认 “已添加的依赖项” 中显示 Spring Web
  • 然后创建,idea会自动生成项目结构

       截图如下

三、等待项目初始化完成

  1. IDEA 会自动打开项目并执行以下操作:
    • 下载 Maven 依赖(底部进度条可见)
    • 生成标准 Spring Boot 项目结构
    • 配置 .gitignorepom.xml 等文件
  2. 等待右下角提示 “项目同步完成” 后,即可开始开发。

Read more

在普通电脑上跑大模型?!llama.cpp 实战指南(真·CPU救星)

文章目录 * 🤯 为什么你需要关注llama.cpp? * 🚀 手把手实战:十分钟跑通模型 * 第一步:准备战场环境 * 第二步:获取模型文件(关键!) * 第三步:启动模型交互! * 🛠️ 高级玩法解锁 * 💡 我的深度体验报告 * 👍 真香时刻 * 🤔 遇到的坑 * 🌟 超实用场景推荐 * 🔮 未来展望:CPU的逆袭? 还在为没显卡跑不动AI模型发愁?这个开源项目让我的旧笔记本起死回生了! 朋友们!今天要分享一个让我拍桌子叫绝的开源神器——llama.cpp。当初看到这个项目时我整个人都惊呆了:纯C++实现!不需要GPU!普通CPU就能跑! 作为一个常年被显卡价格PUA的程序员,这简直是救命稻草啊! 🤯 为什么你需要关注llama.cpp? 先说说我踩过的坑吧。去年想在家折腾开源大模型,结果: * 显卡要求动不动就16G显存(我的1060直接哭晕) * 装依赖环境能折腾一整天(Python版本地狱啊!) * 跑个7B模型风扇像直升机起飞(邻居以为我在挖矿) 直到发现了Georgi Gergan

麦橘超然与Midjourney对比:开源VS云端绘图成本全面评测

麦橘超然与Midjourney对比:开源VS云端绘图成本全面评测 1. 麦橘超然:本地部署的AI绘画新选择 你是否也曾在深夜对着Midjourney生成的图片发呆,一边惊叹于它的视觉表现力,一边心疼着每月账单上不断跳动的订阅费用?如果你有一台带独立显卡的电脑,或许可以试试“麦橘超然”——一个能让你把AI绘图掌握在自己手里的开源方案。 麦橘超然(MajicFLUX)并不是一个全新的模型,而是基于Flux.1架构优化后的本地化图像生成解决方案。它最大的亮点在于离线运行能力和对中低显存设备的友好支持。通过float8量化技术,原本需要24GB显存才能加载的大模型,现在12GB甚至8GB显存也能流畅运行。这意味着RTX 3060、3070这类主流显卡用户终于不用再望“AI绘画”兴叹。 更重要的是,它是完全免费且可定制的。没有按月收费,没有生成次数限制,也不用担心平台政策突变导致账号被封。你可以把它部署在家里的旧笔记本上,也可以放在远程服务器里当做一个私人艺术工坊。 2. 部署实操:三步搭建属于你的AI画室 2.1 环境准备与依赖安装 要让麦橘超然跑起来,首先得有个合适的环境。

5个步骤掌握本地语音识别:Whisper的隐私保护与多场景应用

5个步骤掌握本地语音识别:Whisper的隐私保护与多场景应用 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 在数字化时代,语音作为最自然的交互方式,正深刻改变着我们处理信息的方式。本地语音识别技术让你无需依赖云端服务,在个人设备上即可实现高效、安全的音频转文字功能。OpenAI Whisper作为这一领域的佼佼者,不仅识别准确率超过98%,还支持99种语言的实时转写,更重要的是所有数据处理均在本地完成,如同在你的电脑中建立了一个"私人语音秘书",既高效又保护隐私。 一、解锁本地语音识别的核心价值 1.1 隐私保护的技术革命 传统云端语音识别需要将音频数据上传至服务器处理,存在数据泄露风险。而Whisper的离线音频处理模式,就像在你的设备中构建了一个"隔音会议室",所有语音数据都在本地完成转换,从根本上杜绝了数据传输过程中的安全隐患。无论是商业机密的会议录音,还是个人隐私的语音日记,都能得到最可靠的保护。 1.2

Cogito-v1-preview-llama-3B效果对比:工具调用成功率 vs Qwen2.5-3B实测

Cogito-v1-preview-llama-3B效果对比:工具调用成功率 vs Qwen2.5-3B实测 最近在开源模型社区里,一个叫Cogito v1预览版的模型系列引起了我的注意。官方宣称它在很多方面都超越了同级别的模型,尤其是在工具调用能力上。作为一个经常需要模型帮我处理实际任务的人,我对“工具调用”这个功能特别敏感——毕竟,一个模型再能说会道,如果没法正确使用工具,很多复杂任务就无从谈起。 今天,我就拿Cogito-v1-preview-llama-3B(后面简称Cogito-3B)和另一个热门选手Qwen2.5-3B-Instruct,来一场实打实的工具调用能力对比。我们不只看基准测试分数,更要看在实际对话中,它们能不能听懂指令、正确调用工具、并给出有用的结果。 1. 认识两位选手:Cogito-3B与Qwen2.5-3B 在开始实测之前,我们先快速了解一下今天要上场的两位选手。 1.1 Cogito-v1-preview-llama-3B:自带“反思”能力的混合推理模型 Cogito模型系列来自Deep Cogito,它的最大特点就是“混合推理”。这是什么