EMQX开源版安装指南:Linux/Windows全攻略

EMQX开源版安装指南:Linux/Windows全攻略

EMQX开源版安装教程-linux/windows

因最近自己需要使用MQTT,需要搭建一个MQTT服务器,所以想到了很久以前用到的EMQX。但是当时的EMQX使用的是开源版的,在官网可以直接下载。而现在再次打开官网时发现怎么也找不大开源版本了,所以便在网上找了很久资源,网上的安装教程都是之前的那种官网截图,所以自己找到了资源以后重新梳理一遍现在的EMQX开源版安装教程。

这里主要演示Linux版本,Windows版本可在这里下载到对应的安装包以后参考以前的资料进行安装及配置。

系统:Ubuntu 22.04LTS

下载

1.首先使用浏览器打开链接:
https://www.emqx.com/zh/downloads/broker/

在这里插入图片描述

然后选择自己想要下载的版本,我这里以最新版5.8.6为例,点击5.8.6之后,按照自己的系统等信息选择对应的安装包

在这里插入图片描述

例如我这里的系统是amd64的ubuntu22.04所以我选择了:

在这里插入图片描述

然后去到linux环境下:

使用指令wget + 粘贴

wget https://www.emqx.com/zh/downloads/broker/v5.8.6/emqx-5.8.6-ubuntu22.04-amd64.deb 

等待下载完成:

在这里插入图片描述

2.安装

1.安装依赖

sudoapt update sudoapt upgrade sudoaptinstall -y libssl-dev 
在这里插入图片描述

2.安装deb包

使用 dpkg 工具安装下载好的文件(需替换为实际下载路径):

sudo dpkg -i emqx-5.8.6-ubuntu22.04-amd64.deb 
在这里插入图片描述

3.启动

# 启动服务sudo systemctl start emqx # 检查服务状态(确保显示 "active (running)")sudo systemctl status emqx 
在这里插入图片描述

4. 验证安装

访问 EMQ X 管理控制台(默认端口 18083):

  • 浏览器输入:http://localhost:18083
  • 默认账号 / 密码:admin/public
在这里插入图片描述
在这里插入图片描述

其他操作命令

操作命令
停止服务sudo systemctl stop emqx
重启服务sudo systemctl restart emqx
开机自启sudo systemctl enable emqx
查看日志sudo journalctl -u emqx
  • 若需卸载,可运行:sudo dpkg -r emqx

Read more

AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code,2025年开发者该如何选择?

2025年,AI编程助手已从新奇技术演变为生产力核心,但面对众多选择,开发者如何才能找到最适合自己的智能编程伙伴? 一、四大AI编程工具的核心定位与市场格局 2025年的AI编程工具市场已经形成了明显的分层格局。根据最新的开发者使用数据,这些工具不再仅仅是代码补全助手,而是朝着专业化、场景化方向发展。

By Ne0inhk
Chat took too long to get ready.Please ensure...<VSCode\Copilot>

Chat took too long to get ready.Please ensure...<VSCode\Copilot>

在VScode里面,应用Copilot提问,无法解决问题,该怎么解决呢? 1、在vscode里面,按键  ctrl + shift + p,输入setting,即看到setting.json文件 2、在setting.json文件中添加下面两行   "github.copilot.nextEditSuggestions.enabled": true,   "chat.extensionUnification.enabled":false, 参考图片25、26行 3、保存,重启vscode 4、重启后,点击vscode左下角人头像,查看是否有让授权Copilot的,如果有点击一下授权,解决!!! 如果这样无法解决,建议检查账号是不是不能使用Copilot功能了

By Ne0inhk
vscode copilot在win10 WSL2环境无法使用的问题

vscode copilot在win10 WSL2环境无法使用的问题

问题描述 问话会进入chat初始化过程 等了一段时间就说 retry connection 重新reload window会报:Chat took too long to get ready. Please ensure you are signed in to GitHub and that the extension GitHub.copilot-chat is installed and enabled. 解决办法 回退Copilot版本 参考这位老哥解决方案 :https://github.com/orgs/community/discussions/147219 将Copilot回退回 v1.252.0版本 PS:Vscode插件回退方法 依次点击插件->

By Ne0inhk
Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天) 前言 在本地快速部署大模型进行离线聊天,llama.cpp 是轻量化、高性能的首选工具,尤其是 CUDA 版本能充分利用 NVIDIA 显卡的算力,大幅提升模型推理速度。本文将详细记录在 Windows 11 系统中,从环境准备、CUDA 版 llama.cpp 配置,到实现系统全局调用、快速运行 GGUF 格式模型的完整步骤,全程基于实际操作验证,适配 RTX 3090 等 NVIDIA 显卡,新手也能轻松上手。 https://github.com/ggml-org/llama.cpp

By Ne0inhk