Ambari-Web-3.0.0本地启动与二开环境搭建

Ambari-Web-3.0.0本地启动与二开环境搭建

目前 Kerberos 章节已经推出 FreeIPA 方案,欢迎有需要的查阅,本站也将完成内容迁移。Ttbigdata——Ambari Kerberos 大全

在这里插入图片描述

一、开发环境与工具说明

本文以 Ambari 3.0.0 为目标版本,介绍 Ambari-Web 的本地启动流程。

1、IDE 与开发方式选择

这里使用 WebStorm 作为 Ambari-Web 二次开发的主要 IDE,原因如下:

  • Node / Yarn / NVM 支持完善
  • 对前端项目运行配置友好
  • 日志、断点、控制台集成度高
说明
Ambari-Web 本质是一个 Ember.js 前端工程,与 ambari-server 后端解耦,
本地启动不依赖 Java、Maven 或 Ambari Server。

二、获取 Ambari-Web 源码

1、源码仓库说明

Ambari 官方仓库地址:

https://github.com/apache/ambari 

本文不再赘述 Git Clone 的基础操作。

2、选择 3.0.0 Release 版本

优先选择 Release 包,而非 master 分支:

https://github.com/apache/ambari/releases/tag/release-3.0.0 
image-20260128102705128

三、打开 Ambari-Web 子工程

1、目录选择原则

下载并解压完成后,不要直接打开 Ambari 根目录

在 WebStorm 中,只需要选择:

ambari/ambari-web 
image-20260128102522583
原因说明
Ambari 根目录同时包含:ambari-server(Java)ambari-agent(Python)ambari-web(前端)

前端二开只需要 ambari-web,避免 IDE 索引大量无关内容。

四、Node 与 Yarn 环境准备

1、Node 版本选择

这里使用 nvm 管理 Node 版本。

nvm install18 nvm use 18
注意
Ambari-Web 对 Node 版本较敏感,Node 20+ 在部分依赖场景下会触发构建异常,
建议直接使用 Node 18 LTS

2、启用 corepack 与 Yarn

corepack enablenpminstallyarn -g 

3、配置国内镜像(强烈建议)

yarn config set registry https://registry.npmmirror.com npm config set registry https://registry.npmmirror.com 

4、清理历史依赖并安装

rm -rf node_modules rm -f yarn.lock yarninstall --ignore-engines yarn config set ignore-engines true
说明
Ambari-Web 的部分依赖声明较老,
--ignore-engines必要操作,否则极易卡在依赖校验阶段。

五、WebStorm 启动配置

1、运行配置参数

在 WebStorm 的 Run / Debug Configuration 中新增 Node.js 配置:

  • Commandrun
  • Scriptsstart
  • Node runtime:选择 nvm 中的 Node 18
  • Package manager:选择 nvm 安装的 yarn
image-20260128103145720

2、启动 Ambari-Web

配置完成后,直接点击运行。

image-20260128103547065

六、访问本地 Ambari-Web

启动成功后,默认监听端口为:

http://localhost:3333 
到这里说明
Ambari-Web 已经可以:正常编译本地热更新断点调试 Ember 逻辑

Read more

MixAIHub官网入口 一键解锁全球AI模型 支持ChatGPT、Claude、Sora、Grok、Midjourney等AI官网镜像!最好用的AI官网镜像工具!

MixAIHub.com 是一家AI镜像网站,支持 ChatGPT、Claude、Sora、Grok、Midjourney 等大模型平台,官网完整还原,包含其官网的全部功能。已经成为许多开发者、内容创作者和普通用户的日常工具。但对很多中国大陆的用户来说,访问这些平台往往意味着翻墙、配置、登录、跳转等一系列繁琐步骤。 MixAIHub以镜像方式完整还原其官网体验,包括界面布局、交互流程、以及全部核心功能。你可以像使用原站一样,在 MixAIHub 上使用 ChatGPT 的全部能力,体验 Claude 的写作助手,输入提示词到 Midjourney 生成图像,或直接在网页上与 Sora 和 Grok 对话。 无需任何科学上网手段,无需切换客户端,也无需注册登录,打开浏览器即可进入 MixAI Hub官网地址 MixAIHub官网地址:https://mixaihub.com/

Stable Diffusion + kohya_ss 的安装教程

Stable Diffusion + kohya_ss 的安装教程

工具简介 * Stable Diffusion (SD): 开源的文本到图像生成模型,支持通过提示词生成高质量图像,内置自动标注功能(如BLIP、DeepBooru等)。 * kohya_ss (KS): 基于SD的轻量级微调工具,支持LoRA、DreamBooth等训练方法,优化显存占用与训练效率。 一.SD的安装 对于SD大家可以通过github链接来下载 https://git-scm.com/ Automatic 1111:https://github.com/AUTOMATIC1111 这里提供的链接,下载的SD是最基础的,如果大家想要让他有其他的扩展功能就需要下载相关的插件(后面会写一个关于下载插件的教程请大家持续关注)。 1.准备 Conda 环境 1.1 创建并激活 Conda 环境 # 创建名为 sd-webui 的环境(Python 3.10 推荐,需匹配仓库要求) conda

Z-Image-Turbo实战案例:企业级AI绘画平台搭建,支持批量出图部署教程

Z-Image-Turbo实战案例:企业级AI绘画平台搭建,支持批量出图部署教程 1. 为什么企业需要Z-Image-Turbo这样的AI绘画平台 很多团队在实际业务中都遇到过类似问题:电商要每天上新上百款商品图,营销部门要快速产出节日海报,设计团队被反复修改的配图需求压得喘不过气。传统方式要么外包成本高、周期长,要么用普通AI工具生成效果不稳定、细节粗糙、风格不统一。 Z-Image-Turbo不是又一个“能画图”的玩具模型——它是一套真正能进生产线的文生图解决方案。32GB完整权重预置、9步极速推理、1024×1024原生分辨率支持,意味着你不用再等下载、不用调参、不用拼凑环境,开机就能跑出专业级图像。更重要的是,它基于阿里ModelScope官方开源版本深度优化,稳定性强、接口干净、无隐藏依赖,特别适合企业内网部署和批量集成。 这不是“试试看”的技术尝鲜,而是能直接嵌入你现有工作流的生产力工具。接下来,我会带你从零开始,把这套能力真正落地成可用、可管、可批量的AI绘画平台。 2. 开箱即用:Z-Image-Turbo高性能环境详解 2.1 镜像核心能力一目了然

XIlinx FPGA使用LVDS的电源与电平关键指南

XIlinx FPGA使用LVDS的电源与电平关键指南

针对 7 Series, UltraScale, UltraScale+ FPGAs 以及 MPSoC 器件使用 LVDS 的注意事项: 1. 适用范围 * 器件系列:7 Series, UltraScale, UltraScale+, Zynq UltraScale+ MPSoC。 * 涉及 IO 类型:High Performance (HP) Banks, High Range (HR) Banks, High Density (HD) Banks。 2. 电源电压 (VCCO) 与 输入/输出 的限制 这是该指南的核心内容,根据 Bank 类型和是用作输入还是输出,规则有所不同: A. LVDS