gh_mirrors/jm/jmx_exporter与OpenTelemetry集成:现代化可观测性最佳实践

gh_mirrors/jm/jmx_exporter与OpenTelemetry集成:现代化可观测性最佳实践

【免费下载链接】jmx_exporterA process for exposing JMX Beans via HTTP for Prometheus consumption 项目地址: https://gitcode.com/gh_mirrors/jm/jmx_exporter

jmx_exporter是一款轻量级工具,专为将JVM应用的JMX指标通过HTTP暴露给Prometheus而设计。随着可观测性技术的发展,jmx_exporter已支持与OpenTelemetry集成,为Java应用提供更全面的指标收集与分析能力。本文将详细介绍如何实现这一集成,帮助你构建现代化的可观测性体系。

为什么选择jmx_exporter与OpenTelemetry集成?

在云原生环境中,单一的监控工具往往难以满足复杂的可观测性需求。jmx_exporter与OpenTelemetry的组合提供了以下核心优势:

  • 统一指标出口:通过OpenTelemetry的标准化协议,将JMX指标发送到多种后端系统
  • 丰富的上下文信息:结合OpenTelemetry的trace和log数据,实现指标、日志、追踪的关联分析
  • 灵活的部署模式:支持Java Agent、独立进程和混合模式部署,适应不同场景需求

jmx_exporter与OpenTelemetry集成架构

jmx_exporter通过专用的工厂类实现与OpenTelemetry的集成,核心组件位于jmx_prometheus_common/src/main/java/io/prometheus/jmx/common/OpenTelemetryExporterFactory.java。该架构支持多种数据输出格式:

图:jmx_exporter指标处理流程,展示了Prometheus指标模型如何转换为OpenTelemetry格式

完整的集成 pipeline 如下:

图:基于OpenTelemetry的可观测性数据 pipeline,从Java应用到Prometheus的完整流程

快速集成步骤

1. 准备环境

首先克隆项目仓库:

git clone https://gitcode.com/gh_mirrors/jm/jmx_exporter 

2. 配置OpenTelemetry导出器

在配置文件中添加OpenTelemetry相关设置:

opentelemetry: exporter: otlp: endpoint: "http://otel-collector:4317" timeout: 5000 

3. 选择部署模式

jmx_exporter提供多种部署模式与OpenTelemetry集成:

Java Agent模式
java -javaagent:jmx_prometheus_javaagent.jar=8080:config.yaml -jar your-application.jar 
独立进程模式
java -jar jmx_prometheus_standalone.jar 8080 config.yaml 
隔离Java Agent模式

对于需要类隔离的环境,使用隔离版Agent:

java -javaagent:jmx_prometheus_isolator_javaagent.jar=8080:config.yaml -jar your-application.jar 

高级配置选项

环境变量配置

通过环境变量覆盖配置文件设置:

export OTEL_EXPORTER_OTLP_ENDPOINT=http://otel-collector:4317 export OTEL_SERVICE_NAME=your-service-name 

安全配置

启用TLS和认证:

opentelemetry: exporter: otlp: endpoint: "https://otel-collector:4318" tls: enabled: true certificate: /path/to/cert.pem authentication: type: "basic" username: "user" password: "pass" 

验证集成效果

集成完成后,可以通过以下方式验证:

  1. 检查OpenTelemetry Collector日志,确认接收指标
  2. 访问Prometheus UI,查看是否成功收集到指标
  3. 使用集成测试套件验证不同场景:integration_test_suite/integration_tests/src/test/java/io/prometheus/jmx/test/opentelemetry/

常见问题解决

连接超时问题

  • 检查网络连通性,确保OTLP端点可访问
  • 调整超时配置:opentelemetry.exporter.otlp.timeout

指标缺失问题

  • 检查JMX MBean权限设置
  • 验证规则配置是否正确:examples/

性能影响

  • 对于高负载应用,考虑调整采集间隔
  • 使用隔离Java Agent减少类冲突风险

总结

jmx_exporter与OpenTelemetry的集成为Java应用提供了强大的可观测性解决方案。通过本文介绍的方法,你可以轻松实现从JMX指标到OpenTelemetry生态系统的无缝对接。无论是小型应用还是大型分布式系统,这种集成都能帮助你构建更全面、更灵活的监控体系。

官方文档提供了更多详细信息:docs/content/1.5.0/java-agent/opentelemetry-mode.md。如有疑问,欢迎通过项目issue系统提交反馈。

【免费下载链接】jmx_exporterA process for exposing JMX Beans via HTTP for Prometheus consumption 项目地址: https://gitcode.com/gh_mirrors/jm/jmx_exporter

Read more

AirSim无人机仿真入门(一):实现无人机的起飞与降落

AirSim无人机仿真入门(一):实现无人机的起飞与降落

概述: 安装好所需要的软件和环境,通过python代码控制无人机进行起飞和降落。 参考资料: 1、知乎宁子安大佬的AirSim教程(文字教程,方便复制) 2、B站瑜瑾玉大佬的30天RL无人机仿真教程(视频教程,方便理解) 3、AirSim官方手册(资料很全,不过是纯英文的) AirSim无人机仿真入门(一):实现无人机的起飞与降落 * 1 安装AirSim * 1.1 参考教程 * 1.2 内容梳理 * 1.3 步骤总结 * 2 开始使用 AirSim * 2.1 参考教程 * 2.2 内容梳理 * 2.3 步骤总结 * 3 撰写python控制程序 * 3.1 参考教程 * 3.2 内容梳理

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

前言 我司内部在让机器人做一些行走-操作任务时,不可避免的需要全身遥操机器人采集一些任务数据,而对于全身摇操控制,目前看起来效果比较好的,并不多 * 之前有个CLONE(之前本博客内也解读过),但他们尚未完全开源 * 于此,便关注到了本文要解读的TWIST2,其核心创新是:无动捕下的全身控制 PS,如果你也在做loco-mani相关的工作,欢迎私我你的一两句简介,邀你加入『七月:人形loco-mani(行走-操作)』交流群 第一部分 TWIST2:可扩展、可移植且全面的人形数据采集系统 1.1 引言与相关工作 1.1.1 引言 如TWIST2原论文所说,现有的人形机器人远程操作系统主要分为三大类: 全身控制,直接跟踪人体姿态,包括手臂、躯干和腿部在内的所有关节以统一方式进行控制(如 HumanPlus [12],TWIST [1] ———— TWIST的介绍详见此文《TWIST——基于动捕的全身遥操模仿学习:教师策略RL训练,学生策略结合RL和BC联合优化(可训练搬箱子)》 部分全身控制,

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 遥感数据集 NWPU VHR-10数据集是 10个类别地理空间目标检测的挑战性数据集,共650张图片。 YOLO和COCO格式 数据集按默认划分比例:390张训练集、130张验证集、130张测试集。 手动标注了757架飞机、302艘船只、655个储罐、390个棒球场、524个网球场、159个篮球场、163个田径场、224个港口、124座桥梁和598辆车辆。 📊 一、数据集总体信息 项目描述数据集名称NWPU VHR-10(Northwestern Polytechnical University Very High Resolution 10-class Dataset)任务类型遥感图像中的地理空间目标检测(Object Detection in Remote Sensing Images)图像总数650 张(均为高分辨率遥感图像,源自 Google Earth 等平台)图像分辨率约 600×600

小米 “养龙虾”:手机 Agent 落地,智能家居十年困局被撬开

小米 “养龙虾”:手机 Agent 落地,智能家居十年困局被撬开

3月6日,小米正式推出国内首个手机端类 OpenClaw Agent 应用 ——Xiaomi miclaw,开启小范围邀请封测。这款被行业与网友戏称为小米 “开养龙虾” 的新品,绝非大模型浪潮下又一款语音助手的常规升级,而是基于自研 MiMo 大模型、具备系统级权限、全场景上下文理解能力的端侧智能体。 作为深耕智能家居领域的行业媒体,《智哪儿》始终认为:智能家居行业过去十年的迭代,始终没能跳出 “被动执行” 的底层困局。而 miclaw 的落地,不止是小米在端侧 AI 赛道的关键落子,更是为整个智能家居行业的底层逻辑重构,提供了可落地的参考范本。需要清醒认知的是,目前该产品仍处于小范围封测阶段,复杂场景执行成功率、端侧功耗表现、第三方生态适配进度等核心体验,仍有待大规模用户实测验证。本文将结合具象场景、量化数据与多维度视角,客观拆解 miclaw 的突破价值、现实挑战,以及它对智能家居行业的长期影响。 01 复盘行业困局:智能家居十年 始终困在 “被动执行”