PentAGI-(AI自动化渗透)Docker环境部署

PentAGI-(AI自动化渗透)Docker环境部署

一、 深度解构:什么是 PentAGI?

PentAGI 是由 VXControl 团队开发的一款革命性开源安全项目。它代表了 AI 与网络安全 深度融合的最高水准,旨在打造一个能够自主执行任务的“数字黑客助手”。

1. 为什么它如此强大?

不同于传统的扫描器(如 Nessus 或 OpenVAS),PentAGI 的核心是一个基于 LLM(大语言模型) 的决策引擎。它不仅能发现漏洞,更重要的是它能“理解”漏洞。

  • • 自主推理:它能像人类渗透测试专家一样,根据上一步的扫描结果(如端口开放情况)动态推导下一步的攻击路径。
  • • 工具编排:它能自主驱动并联动数百个安全工具(如 Nmap、Sqlmap、Nuclei、Metasploit 等),实现真正的自动化闭环。
  • • 长效记忆:集成 pgvector 向量数据库,让 AI 能够记住目标系统的历史架构,从而在复杂的内网环境中不迷路。

2. 核心功能与应用场景

  • • 自动化红队演练:在企业内网中自动模拟黑客攻击,寻找加固点。
  • • 智能代码/指纹分析:利用 AI 快速识别非标准的 Web 组件和潜在的零日(0-day)配置风险。
  • • 漏洞复现报告:自动尝试利用发现的漏洞(如 SQL 注入),并生成包含修复建议的详细报告。

二、 ⚠️ 法律与职业道德警示

【强制性提示】

PentAGI 具备极强的攻击性。必须在获得正式书面授权的情况下方可使用。

  • • 严禁非法攻击:任何未经授权的测试行为均属违法,需承担法律责任。
  • • 合规研究:本工具仅限用于合规的渗透测试、安全研究及防御性演练工作。

三、 部署前的核心依赖:API Key

特别注意: PentAGI 的“大脑”依赖于外部 API。在使用之前,你必须准备好以下至少一种 API 密钥:

  • • Google Gemini API(推荐,支持超长上下文)
  • • OpenAI API (GPT-4 级别)
  • • Anthropic API (Claude 系列)

没有 API Key,系统将无法进行逻辑推理和任务决策。


四、 快速部署步骤 (Ubuntu 22.04)

1. 环境初始化

我们将项目部署在 admin 用户目录下:

# 切换至项目目录 mkdir -p /home/admin/pentagi && cd /home/admin/pentagi # 安装 unzip 等必要工具 sudo apt update && sudo apt install -y unzip curl

2. 解决网络难题:配置 Docker 镜像加速

PentAGI 依赖的镜像(如 scraper)超过 1GB,国内下载极易失败,必须配置加速器。

sudo nano /etc/docker/daemon.json

在文件中填入:

{ "registry-mirrors": [ "https://docker.m.daocloud.io", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.anyhub.us.kg", "https://docker.chenby.cn" ] }

保存后执行:

sudo systemctl daemon-reload && sudo systemctl restart docker

3. 获取配置文件与权限优化

下载核心定义文件,并修改端口监听以便在宿主机通过 192.168.x.x 访问。

# 下载定义文件 curl -o .env https://raw.githubusercontent.com/vxcontrol/pentagi/master/.env.example curl -O https://raw.githubusercontent.com/vxcontrol/pentagi/master/docker-compose.yml

修改监听权限:

执行 nano docker-compose.yml,定位到 pentagi 服务的 ports 节点:

  • • 删除${PENTAGI_LISTEN_IP:-127.0.0.1}:${PENTAGI_LISTEN_PORT:-8443}:8443
  • • 替换为"0.0.0.0:8443:8443" (注意双引号)
pentagi: image: ${PENTAGI_IMAGE:-vxcontrol/pentagi:latest} restart: unless-stopped container_name: pentagi hostname: pentagi expose: - 8443/tcp ports: - "0.0.0.0:8443:8443" # 修改后的行 depends_on: pgvector: condition: service_started

4. 填入核心驱动:配置 API Key

nano .env

找到相关 API 变量(如 GEMINI_API_KEY),填入你获取的密钥并保存。


五、 启动与访问

1. 一键启动集群

docker compose up -d

2. 远程登录

在 Windows 宿主机浏览器中输入虚拟机的实际 IP:
https://192.168.x.x:8443

(注意:由于使用自签名证书,请在浏览器弹出“警告”时点击“高级” -> “继续前往”。)

默认登录信息

项目默认值
用户名 (Email)[email protected]
密码 (Password)admin
访问地址https://192.168.x.x:8443

Read more

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

Copilot 的agent、ask、edit、plan模式有什么区别

Copilot 的 ask、edit、agent、plan 四种模式,核心区别在于权限范围、操作主动性、代码修改权限、适用场景,以下从定义、工作机制、核心特点、典型场景与操作流程展开,帮你快速区分并选对模式。 一、核心区别速览(表格版) 二、分模式详细解析 1. Ask 模式:纯问答与代码理解 * 工作机制:基于当前文件 / 选中代码的上下文,回答自然语言问题,不修改任何代码,仅输出文字解释、建议或思路。 * 典型用法: * 解释某段代码逻辑(如 “这段 Python 函数做了什么”); * 咨询技术方案(如 “如何在 Go 中实现重试机制”); * 调试思路(如 “这个死循环可能的原因”)。 * 关键特点:安全无风险,适合学习、快速澄清和非修改类咨询。

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考 背景与测评目标 本文为适配大模型国产化部署需求,以 Llama-2-7b 为对象,在 GitCode Notebook 昇腾 NPU 环境中完成从依赖安装到模型部署的全流程落地,并通过六大维度测评验证:单请求吞吐量稳定 15.6-17.6 tokens / 秒,batch=4 时总吞吐量达 63.33 tokens / 秒,16GB 显存即可支撑高并发,最终提供可复现的部署方案、性能基准数据及硬件选型建议,助力高效落地国产算力大模型应用。 昇腾 NPU :以华为自研达芬奇架构为核心,高效张量计算适配大模型全场景;搭载 CANN 架构简化开发,支持量化与混合并行技术平衡算力与能耗,深度兼容开源生态适配国产化需求 Llama-2-7B 模型:Meta 开源 70

LLaMA-Factory环境配置与WebUI启动全攻略:从CUDA适配到依赖踩坑

最近在本地部署LLaMA-Factory时,踩了一连串环境配置的坑——从GitHub克隆失败、CUDA不可用到虚拟环境依赖缺失,最终成功启动WebUI。这篇文章就把完整的排错过程和解决方案整理出来,希望能帮到遇到类似问题的同学。 一、问题背景:本地部署LLaMA-Factory的核心诉求 目标是在Windows 10环境下,基于Anaconda创建虚拟环境,部署LLaMA-Factory并启动WebUI,利用本地NVIDIA MX230显卡(2GB显存)实现GPU加速。但从克隆仓库开始,就遇到了一系列报错,主要涉及三类问题: * 仓库克隆失败(GitHub连接重置、Gitee 403权限拒绝); * PyTorch CUDA支持缺失(报“Torch not compiled with CUDA enabled”); * 虚拟环境依赖缺失(直接运行WebUI报“ModuleNotFoundError: No module named 'torch'”)。 二、核心报错解析与分步解决方案 坑1:仓库克隆失败——网络限制与镜像选择 报错现象 从GitHub克隆时提示连