IDEA 创建 Spring Boot Web 项目完整教程

一、新建 Spring Boot 项目

1. 打开新建项目窗口

  • 打开 IntelliJ IDEA → 点击 新建项目(或从欢迎页选择 New Project
  • 在左侧生成器中选择 Spring Boot

  •          截图如下
选项填写内容说明
服务器 URLstart.spring.ioSpring 官方初始化地址
名称demo项目名
位置D:\idea项目存放路径(建议不要含中文 / 空格)
语言Java开发语言
类型Maven项目构建工具
org.example项目组织标识
工件demo项目模块名
软件包名称com.example.demo根包名
JDK21 Oracle OpenJDK 21.0.8你的 JDK 版本
Java17源码兼容版本(Spring Boot 4.0.3 推荐 Java 17+)
打包Jar可执行 Jar 包(Spring Boot 推荐)
配置Properties配置文件格式

       点击 下一步 (N) 进入依赖选择页面。

二、选择 Spring Web 依赖

1. 选择 Spring Boot 版本

  • Spring Boot 版本:4.0.3(保持默认即可)

2. 添加 Web 依赖

  • 在左侧依赖列表中展开 Web 分类
  • 勾选 Spring Web(右侧会显示依赖说明:用于构建 Web/RESTful 应用,内置 Tomcat 容器)
  • 确认 “已添加的依赖项” 中显示 Spring Web
  • 然后创建,idea会自动生成项目结构

       截图如下

三、等待项目初始化完成

  1. IDEA 会自动打开项目并执行以下操作:
    • 下载 Maven 依赖(底部进度条可见)
    • 生成标准 Spring Boot 项目结构
    • 配置 .gitignorepom.xml 等文件
  2. 等待右下角提示 “项目同步完成” 后,即可开始开发。

Read more

用闲置Mac Mini部署OpenClaw(moltbot)实现你的专属金融AI分析师

用闲置Mac Mini部署OpenClaw(moltbot)实现你的专属金融AI分析师

在数字时代,每个人都需要一个24小时在线的智能工作伙伴。如果你恰好有一台闲置的Mac Mini,只需几个小时,就能将它变身为一个具备专业金融分析能力的AI助手。本文将手把手带你完成整个部署过程,让你拥有一个能对话、能分析、能监控的私人数字员工。 一、为什么选择Mac Mini+OpenClaw? 核心优势对比 传统方式Mac Mini+OpenClaw方案需要购买云服务器,持续付费利用闲置硬件,零额外硬件成本数据存储在第三方平台数据完全私有,存储在本地功能固定,难以定制可通过技能商店无限扩展功能需要专业技术维护一次性部署,长期稳定运行 特别是对于金融从业者、投资者以及对市场信息敏感的用户,这个方案能提供: * 7×24小时市场监控与预警 * 自然语言驱动的专业分析 * 完全私有的数据环境 * 可扩展的金融工具集成 二、完整部署流程图 graph A[开始部署] --> B{选择设备方案}; B --> C[闲置Mac Mini]; B --> D[

Skill 构建指南:从零打造 AI 智能体扩展包

Skill 构建指南:从零打造 AI 智能体扩展包 引言 在人工智能时代,如何让智能体具备更强的专业能力和更丰富的工作流程?答案就是 Skill——一种为智能体设计的能力扩展包。本文将详细介绍如何从零开始构建符合规范的 Skill,让你的创意变成可分发的工具。 什么是 Skill? 核心定位 Skill 是被智能体加载和执行的能力扩展包,而非独立运行的应用程序。 执行模式 * Skill 在智能体的会话上下文中被动态加载 * 智能体读取 SKILL.md 的指导,调用 scripts/ 中的脚本,参考 references/ 中的文档 * Skill 的所有交互都通过智能体与用户的对话完成 Skill 提供的能力 * ✅ 专门工作流程(多步骤程序与条件逻辑) * ✅ 工具集成(文件格式与 API 的使用方式) * ✅ 领域专家知识(公司或系统特有的架构与逻辑) * ✅ 打包资源(脚本、参考、资产) Skill

手机也能跑大模型?QNN框架实战:从零部署LLaMA-7B到Android的完整避坑指南

手机也能跑大模型?QNN框架实战:从零部署LLaMA-7B到Android的完整避坑指南 最近在跟几个做移动端AI应用的朋友聊天,大家普遍有个痛点:现在大模型这么火,但一提到在手机上本地运行,第一反应就是“不可能”——内存不够、算力太弱、延迟太高。这让我想起几年前做移动端图像识别,也是从“这玩意儿能在手机上跑?”的质疑开始的。现在,随着端侧推理框架的成熟,特别是像QNN(Qualcomm Neural Network SDK)这类专门为移动和边缘设备优化的工具链出现,让手机本地运行一个7B甚至13B参数的大语言模型,已经从“技术演示”变成了“工程可实现”的目标。 这篇文章,我想从一个移动端开发者的实际视角出发,抛开那些泛泛而谈的API介绍,聚焦于一个核心问题:如何把一个像LLaMA-7B这样的“大家伙”,真正塞进一部普通的Android手机里,并且让它能流畅地跟你对话? 这个过程远不止是调用几个接口那么简单,你会遇到模型裁剪、内存峰值管理、Vulkan加速适配、量化精度权衡等一系列具体而微的“坑”。我会结合自己最近一次将LLaMA-7B-INT8模型部署到小米13上的完整实战记录,