详解RabbitMQ单机多节点搭建集群

详解RabbitMQ单机多节点搭建集群

目录

单机多节点搭建集群

Ubuntu

安装RabbitMQ

查看RabbitMQ的状态

再启动两个节点

搭建集群

Centos

安装RabbitMQ

查看集群状态

再启动两个节点

搭建集群


单机多节点搭建集群

Ubuntu
安装RabbitMQ

安装RabbitMQ的步骤在之前的博客中已经写过了。

查看RabbitMQ的状态
rabbitmqctl status #查看RabbitMQ状态

会在结果的第一行看到节点的名称,比如:

端⼝号介绍:

25672这是Erlang分布式节点通信的默认端⼝, Erlang是RabbitMQ的底层通信协议.
15672这是 Web管理界⾯的默认端⼝, 通过这个端⼝可以访问RabbitMQ的Web管理控制台, ⽤于查看和管理消息队列.
5672这是 AMQP (Advanced Message Queuing Protocol) 协议的默认端⼝, ⽤于客⼾端与
RabbitMQ服务器之间的通信.
再启动两个节点

现在已经安装的RabbitMQ端⼝号是5672, 15672
再启动两个RabbitMQ服务, 节点名称和端⼝号分别设置为:

Node nameAMQP协议端口号Web管理界面端口号
rabbit2567315673
rabbit3567415674

启动命令如下:

RABBITMQ_NODE_PORT=5673 RABBITMQ_SERVER_START_ARGS="rabbitmq_management listener [{port,15673}]" RABBITMQ_NODENAME=rabbit2 rabbitmq-server -detachedRABBITMQ_NODE_PORT=5674 RABBITMQ_SERVER_START_ARGS="rabbitmq_management listener [{port,15674}]" RABBITMQ_NODENAME=rabbit3 rabbitmq-server -detached

然后可以通过IP+15673和IP+15674访问管理界面看是否启动成功。

搭建集群

停止服务并重置

rabbitmqctl -n rabbit2 stop_apprabbitmqctl -n rabbit2 resetrabbitmqctl -n rabbit3 stop_apprabbitmqctl -n rabbit3 reset

把node2,node3节点加入集群

rabbitmqctl -n rabbit2 join_cluster rabbit@hcss-ecs-2618rabbitmqctl -n rabbit3 join_cluster rabbit@hcss-ecs-2618

重启rabbit2,rabbit3

rabbitmqctl -n rabbit2 start_apprabbitmqctl -n rabbit3 start_app

查看集群状态

rabbitmqctl cluster_status -n rabbit

可以通过主节点的管理界面,看到集群其它节点的状态

Centos
安装RabbitMQ

安装RabbitMQ的详细步骤已经在之前的博客中写过了。

查看集群状态
rabbitmqctl status #查看RabbitMQ状态

可以在结果中第一行看到节点名称

再启动两个节点

现在已经安装的RabbitMQ端⼝号是5672, 15672
再启动两个RabbitMQ服务, 节点名称和端⼝号分别设置为:

Node nameAMQP协议端口号Web管理界面端口号
rabbit2567315673
rabbit3567415674

启动命令如下:

RABBITMQ_NODE_PORT=5673RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15673}]" RABBITMQ_NODENAME=rabbit2rabbitmq-server -detachedRABBITMQ_NODE_PORT=5674RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15674}]" RABBITMQ_NODENAME=rabbit3rabbitmq-server -detached

注意上面的命令在复制的时候如下图所示:

因为我在复制上面的命令时发现多次都没有启动成功,找了好久才发现在复制的时候,一个-横线在复制后没有了。

可以通过IP+端口号进行访问看是否启动成功,也可以使用netstat -anp | grep 56来查看是否启动成功。

搭建集群

停止服务并重置

rabbitmqctl -n rabbit2 stop_app

rabbitmqctl -n rabbit2 reset



rabbitmqctl -n rabbit3 stop_app

rabbitmqctl -n rabbit3 reset

把rabbit2和rabbit3加入集群

rabbitmqctl -n rabbit2 join_cluster rabbit@iZbp190qbav81ruf46b5w7Z



rabbitmqctl -n rabbit3 join_cluster rabbit@iZbp190qbav81ruf46b5w7Z

重启rabbit2和rabbit3

rabbitmqctl -n rabbit2 start_app



rabbitmqctl -n rabbit3 start_app

查看集群状态

rabbitmqctl cluster_status -n rabbit

通过管理界面可以查看到集群信息

Read more

『AI辅助Skill』掌握三大AI设计Skill:前端独立完成产品设计全流程

『AI辅助Skill』掌握三大AI设计Skill:前端独立完成产品设计全流程

📣读完这篇文章里你能收获到 1. 🎨 掌握ASCII Design快速验证产品想法的方法 2. 🖼️ 学会Wireframe Design生成专业SVG线稿 3. 💻 了解三种Frontend Design Skills的选择策略 4. 🚀 掌握完整OPC工作流,1-2天完成产品开发 文章目录 * 前言 * 一、三大AI设计Skill工作流 * 1.1 传统流程的核心痛点 * 1.2 AI辅助工作流 * 二、ASCII与Wireframe设计技能 * 2.1 ASCII Design Skill —— 秒级验证产品想法 * 2.2 Wireframe Design Skill —— 专业级设计原型 * ASCII vs SVG:如何选择 * 核心特性 * 工作流程 * 三、Frontend Design Skills选择策略 * 3.1

By Ne0inhk

前端转型AI的“第一公里”:如何建立正确的AI心智模型?

前端转型AI的“第一公里”:如何建立正确的AI心智模型? 在过去的一年里,我见证了太多前端同行的焦虑与迷茫。AI浪潮袭来,很多人匆忙上阵,学会了调用OpenAI的API,甚至跑通了LangChain的Demo,但在实际落地时却频频踩坑。 我们习惯了确定性的世界:输入1 + 1,输出必然是2;写了display: flex,布局必然改变。然而,AI开发是一个概率性的世界:同样的Prompt,两次调用可能得到截然不同的结果。这种底层逻辑的冲突,是前端转型AI最大的“拦路虎”。 很多前端工程师把大模型仅仅当成一个“智能API接口”,试图用传统的硬编码逻辑去控制它,结果往往是Prompt越写越长,系统却越来越不稳定。这并非技术能力不足,而是心智模型尚未完成迁移。 从“函数思维”到“上下文思维” 传统前端开发的核心是“函数思维”:我们定义输入、处理逻辑和输出,追求的是精准控制。但在AI应用开发中,这种思维必须升级为“上下文思维”。 大模型本质上是一个“概率预测机”。它不像函数那样执行指令,而是像人一样理解语境。前端开发者转型AI的第一步,不是去学Python深度学习框架,而是学会如

By Ne0inhk

使用Docker安装Ollama及Open-WebUI完整教程

作者:吴业亮 博客:wuyeliang.blog.ZEEKLOG.net 一、Ollama 简介及工作原理 1. Ollama 简介及原理 * 简介:Ollama 是一款轻量级、开源的大语言模型(LLM)运行工具,旨在简化本地部署和运行大语言模型的流程。它支持 Llama 3、Mistral、Gemini 等主流开源模型,用户无需复杂配置即可在本地设备(CPU 或 GPU)上快速启动模型,适用于开发测试、本地智能应用搭建等场景。 * 工作原理: * 采用模型封装机制,将大语言模型的运行环境、依赖库及推理逻辑打包为标准化格式,实现模型的一键下载、启动和版本管理。 * 通过优化的推理引擎适配硬件架构,支持 CPU 基础运行和 GPU 加速(如 NVIDIA CUDA),减少资源占用并提升响应速度。 * 提供简洁的

By Ne0inhk

Qwen3-VL-WEBUI实时流处理:视频动态理解部署教程

Qwen3-VL-WEBUI实时流处理:视频动态理解部署教程 1. 引言 随着多模态大模型的快速发展,视觉-语言理解能力正从静态图像识别迈向复杂视频内容的动态推理与交互式任务执行。阿里云最新推出的 Qwen3-VL-WEBUI 正是这一趋势下的重要实践工具——它不仅集成了迄今为止 Qwen 系列最强大的视觉语言模型 Qwen3-VL-4B-Instruct,还通过 WebUI 提供了直观、可交互的部署入口,特别适用于实时视频流处理与动态理解场景。 在实际应用中,诸如智能监控分析、自动化操作代理(Agent)、教育视频内容解析等需求,都要求模型具备对长时间视频序列的理解能力和精准的时间语义定位能力。而 Qwen3-VL-WEBUI 借助其增强的架构设计和内置优化,使得开发者无需深入底层即可快速实现这些高阶功能。 本文将围绕 Qwen3-VL-WEBUI 的部署流程、核心能力解析以及如何实现视频流的实时动态理解 展开,提供一套完整可落地的技术方案,帮助你从零开始构建一个支持视频输入、时间戳对齐、事件识别与自然语言响应的多模态系统。 2. 技术背景与选型价值 2.1 Qwen

By Ne0inhk