jadx-ai-mcp环境搭建AI逆向分析JAVA代码

jadx-ai-mcp环境搭建AI逆向分析JAVA代码

⚡ 全自动 MCP 服务器 + JADX 插件,通过 MCP 与 LLM 通信,使用 Claude 等 LLM 分析 Android APK — 轻松发现漏洞、分析 APK 和进行逆向工程。

https://github.com/zinja-coder/jadx-ai-mcp

🤖 JADX-AI-MCP是什么?

JADX-AI-MCP是JADX 反编译器的一个插件,它直接与模型上下文协议 (MCP)集成,为 Claude 等 LLM提供实时逆向工程支持。

想象一下:“反编译 → 上下文感知代码审查 → AI 建议”——所有过程都是实时进行的。

高级序列图
在这里插入图片描述

参与者与角色

  • LLM Client:发起调用的模型客户端。
  • JADX MCP Server:向 LLM 暴露工具的 MCP 服务端。
  • JADX AI MCP Plugin:具体工具实现,负责把请求转成 HTTP 并路由到处理器。
  • Request Handlers:HTTP 请求处理层,协调具体动作。
  • JADX GUI:被操作的图形界面,执行实际任务并产生数据。

主流程(自左向右)

  1. LLM Client 调用 MCP 工具到 JADX MCP Server。
  2. MCP Server 将其转为一次 HTTP 请求,发送给 JADX AI MCP Plugin。
  3. Plugin 触发内部的 HTTP Request Handler。
  4. Handler 驱动 JADX GUI 执行动作/采集数据。
  5. GUI 完成动作/产出数据,回传给 Handler。
  6. Handler 组织结果,生成 HTTP 响应给 Plugin。
  7. Plugin 将 HTTP 响应返回给 MCP Server。
  8. MCP Server 把工具结果返回给 LLM Client。

关键要点

  • 插件(JADX AI MCP Plugin)是协议与应用之间的“桥”,完成 MCP→HTTP→应用 的适配。
  • Request Handlers 将业务动作解耦为可路由的 HTTP 端点,便于扩展。
  • GUI 是真实“执行者”,说明该链路能触发交互式或可视化操作,再回传结果。

🤖 JADX-MCP-SERVER 是什么?

JADX MCP 服务器JADX-AI-MCP是一个独立的 Python 服务器,它通过 MCP(模型上下文协议)与插件(参见:jadx-ai-mcp )交互。它允许 LLM 与反编译的 Android 应用上下文进行实时通信。

🛠️ 入门指南

1. 从发布页面下载:https://github.com/zinja-coder/jadx-ai-mcp/releases

下载这两个jadx-ai-mcp-<version>.jar文件jadx-mcp-server-<version>.zip

  • 0:下载文件
    • 从发布页下载插件和服务端包:GitHub Releases
    • 需要两个文件:
      • jadx-ai-mcp-<version>.jar(JADX 插件)
      • jadx-mcp-server-<version>.zip(MCP 服务端源码/脚本)
  • 1:解压
    • 解压 jadx-ai-mcp-<version>.zip 后应包含:
├─ jadx-mcp-server/ │ ├─ jadx_mcp.py │ ├─ requirements.txt │ ├─ README.md │ ├─ LICENSE ├─ jadx-ai-mcp-<version>.jar 
  • 含义:
    • jadx-ai-mcp-<version>.jar:要装到 JADX 的插件文件。
    • jadx-mcp-server/:Python 实现的 MCP 服务端项目(后续可用来与插件通信)。
  • 2:安装插件(两种方式二选一)
    • 方式 1:一行命令安装最新版(推荐)
      • 在命令行执行:
jadx plugins --install "github:zinja-coder:jadx-ai-mcp"
- 作用:直接把最新版本插件装入 JADX 的插件目录,无需手动下载 `.jar`。 
在这里插入图片描述
  • 方式 2:通过 JADX-GUI 手动安装本地 jar
    • 打开 JADX-GUI
    • 进入插件管理(Plugins/插件)
    • 选择“从本地文件安装/添加”之类的选项
    • 选择你下载好的 jadx-ai-mcp-<version>.jar 并确认
    • 按提示重启 JADX-GUI 即可生效

以上完成后,插件已安装;jadx-mcp-server 目录则是后续在本地运行 MCP 服务端用的项目。

在这里插入图片描述
  • 方式3:图形用户界面方法:下载 .jar 文件,并按照图中所示步骤操作。
在这里插入图片描述
  • 第 3 步:进入目录
    • 作用:切换到 jadx-mcp-server 项目的根目录,后续命令都在这里执行。
  • 第 4 步:本项目用 uv 管理依赖(替代 pip/venv)
    • uv 是 Astral 出品的 Python 包与环境管理工具,安装/解析依赖更快,内置缓存。
    • a) 安装 uv(若未安装)
    • b) 可选:如果在 jadx-mcp-server 中遇到依赖报错,创建并启用虚拟环境
      • 激活虚拟环境:
  • 完成效果
    • 至此,jadx-ai-mcp 插件配套的 jadx_mcp_server 运行环境已就绪;后续即可在该环境中启动/开发服务端并与插件联动

第5步:打开trae配置mcp这里使用trae,cursor,Claude Desktop 或者 任意的带有mcp的就可以了

在这里插入图片描述

然后进行手动添加

"jadx-mcp-server": { "command": "uv", "args": [ "--directory", "D:\\jadx-mcp-server-v4.0.0\\jadx-mcp-server\\", "run", "jadx_mcp_server.py" ] } 

或者 用自带的python,注意自带的python 需要安装上面说的 httpx fastmcp 两个包。

"jadx-mcp-server": { "command": "C:\\Users\\yang\\AppData\\Local\\Programs\\Python\\Python311\\python.exe", "args": [ "D:\\jadx-mcp-server-v4.0.0\\jadx-mcp-server\\jadx_mcp_server.py" ] } 

c) 可选:安装所需依赖到当前虚拟环境

uv pip install httpx fastmcp 

执行过的

PS D:\jadx-mcp-server-v4.0.0\jadx-mcp-server> uv venv Using CPython 3.8.10 interpreter at: C:\Users\yang\AppData\Local\Programs\Python\Python38\python.exe Creating virtual environment at: .venv Activate with: .venv\Scripts\activate PS D:\jadx-mcp-server-v4.0.0\jadx-mcp-server> uv pip install httpx fastmcp x No solution found when resolving dependencies: `-> Because the current Python version (3.8.10) does not satisfy Python>=3.10 and all versions of fastmcp depend on Python>=3.10, we can conclude that all versions of fastmcp cannot be used. And because you require fastmcp, we can conclude that your requirements are unsatisfiable. 

Windows:

.venv\Scripts\activate 

Linux/macOS:

source .venv/bin/activate 

创建虚拟环境:

uv venv 

Windows(PowerShell):

irm https://astral.sh/uv/install.ps1 |iex

若闪退使用下面的,或者问AI

powershell -NoExit -ExecutionPolicy Bypass -NoProfile -Command "irm https://astral.sh/uv/install.ps1 | iex" 
在这里插入图片描述

执行上述命令后,uv将成功安装到你的系统中。接下来,重启power或者使用红色框里面的设置命令

Linux/macOS:

curl -LsSf https://astral.sh/uv/install.sh |sh

执行:

cd jadx-mcp-server 

Read more

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

最近mimiclaw火爆,其开发团队也在密集更新,我看3天前已经可以用“飞书机器人”对话交互了。 目前网络上能查到的部署资料相对滞后,现在将飞书机器人的部署整理如下: 1. 前提 已经安装好ESP-IDF,并支持vscode编译esp32固件。 2. api-key准备 * 注册deepseek, * 创建APIkey, * 并充值,新注册的用户余额为零,无法使用 3. 飞书机器人 我是在飞书个人版中,创建的机器人。 1. 访问飞书开放平台,单击创建企业自建应用,填写应用名称和描述,选择应用图标,单击创建。 2. 左侧导航栏单击凭证与基础信息 页面,复制App ID(格式如 cli_xxx)和App Secret。 3. 配置事件订阅。 1. 在飞书开放平台左侧导航栏单击事件与回调,在事件配置页签中单击订阅方式,选择使用 长连接 接收事件,单击保存。 2. 在事件配置页面,单击添加事件,

深入解析VR与AR:从技术原理到未来图景

引言 虚拟现实(VR)和增强现实(AR)正逐步从科幻概念演变为改变我们工作、娱乐和社交方式的核心技术。它们通过数字内容与现实世界的融合,重塑了人机交互的边界。本文将系统分析两者的定义、技术架构、应用场景、当前挑战及未来趋势,帮助您全面理解这一变革性领域。 一、核心定义与区别 维度虚拟现实 (VR)增强现实 (AR)混合现实 (MR)概念完全由计算机生成的虚拟环境,用户沉浸其中,与物理世界隔绝将数字信息叠加到真实世界之上,用户同时看到虚实内容数字对象与真实世界实时交互,并相互影响(AR的进阶)沉浸感完全沉浸(封闭式)部分沉浸(透视式)虚实融合,具有空间锚定和物理交互典型设备Oculus Quest, HTC Vive, PlayStation VRMicrosoft HoloLens, Google Glass, 手机AR(ARKit/ARCore)Microsoft HoloLens 2, Magic Leap核心技术头显显示、

OpenClaw对接飞书机器人高频踩坑实战指南:从插件安装到回调配对全解析

前言 当前企业办公场景中,将轻量级AI框架OpenClaw与飞书机器人结合,能够快速实现智能交互、流程自动化等功能。然而,在实际对接过程中,开发者常常因权限配置、环境依赖、回调设置等细节问题陷入反复试错。本文以“问题解决”为核心,梳理了10个典型踩坑点,每个问题均配套原因分析、排查步骤和实操案例。同时,补充高效调试技巧与功能扩展建议,帮助开发者系统性地定位并解决对接障碍,提升落地效率。所有案例基于Windows 11环境、OpenClaw最新稳定版及飞书开放平台最新界面验证,解决方案可直接复用。 一、前置准备(快速自查) 为避免基础环境问题浪费时间,建议在开始前确认以下三点: * OpenClaw已正确安装,终端执行 openclaw -v 可查看版本(建议使用最新版,旧版本可能存在插件兼容风险)。 * Node.js版本不低于v14,npm版本不低于v6,通过 node -v 和 npm -v 验证,防止因依赖版本过低导致插件安装失败。 * 飞书账号需具备企业开发者权限(企业账号需管理员授权,个人账号默认具备)

数字FPGA方向 + 双一流本科 + C9硕士在读,前路如何?

数字FPGA方向 + 双一流本科 + C9硕士在读,前路如何?

数字FPGA方向 + 双一流本科 + C9硕士在读 + 组内有完整工程项目经验 如果只有前面三项,其实确实会焦虑。 因为现在做FPGA的人里,成绩好、学历高的并不少。 但再加上扎实的工程项目经历——真正从需求、架构、RTL、时序收敛到板级联调都走过一遍——这套配置,在当下已经不算弱。 即便如此,这类同学依然迷茫,我信。 现在卷的不是学历,是“谁更像工程师”。 回到标题这个问题——“数字FPGA、双一流本、C9硕士在读,出路在哪?” 从背景来看,有几条路可以认真想一想。 硕士毕业直接就业,是一条很现实的路。 FPGA行业本质是工程驱动型行业。 企业比起论文,更看你有没有真正做过项目: 是否独立写过模块? 是否收过时序? 是否在板子上调过问题? 是否面对过真实接口协议? 哪怕第一份工作只是做验证支持,或者在中小公司做通用逻辑开发,只要你能在两三年里真正参与完整产品交付,含金量会迅速拉开差距。 很多人焦虑的是起点,其实真正决定差距的是前三年的积累密度。 继续读博。 这条路只适合两种人: 第一,真的喜欢做架构和方法研究; 第二,目标非常明确,