PentAGI-(AI自动化渗透)Docker环境部署

PentAGI-(AI自动化渗透)Docker环境部署

一、 深度解构:什么是 PentAGI?

PentAGI 是由 VXControl 团队开发的一款革命性开源安全项目。它代表了 AI 与网络安全 深度融合的最高水准,旨在打造一个能够自主执行任务的“数字黑客助手”。

1. 为什么它如此强大?

不同于传统的扫描器(如 Nessus 或 OpenVAS),PentAGI 的核心是一个基于 LLM(大语言模型) 的决策引擎。它不仅能发现漏洞,更重要的是它能“理解”漏洞。

  • • 自主推理:它能像人类渗透测试专家一样,根据上一步的扫描结果(如端口开放情况)动态推导下一步的攻击路径。
  • • 工具编排:它能自主驱动并联动数百个安全工具(如 Nmap、Sqlmap、Nuclei、Metasploit 等),实现真正的自动化闭环。
  • • 长效记忆:集成 pgvector 向量数据库,让 AI 能够记住目标系统的历史架构,从而在复杂的内网环境中不迷路。

2. 核心功能与应用场景

  • • 自动化红队演练:在企业内网中自动模拟黑客攻击,寻找加固点。
  • • 智能代码/指纹分析:利用 AI 快速识别非标准的 Web 组件和潜在的零日(0-day)配置风险。
  • • 漏洞复现报告:自动尝试利用发现的漏洞(如 SQL 注入),并生成包含修复建议的详细报告。

二、 ⚠️ 法律与职业道德警示

【强制性提示】

PentAGI 具备极强的攻击性。必须在获得正式书面授权的情况下方可使用。

  • • 严禁非法攻击:任何未经授权的测试行为均属违法,需承担法律责任。
  • • 合规研究:本工具仅限用于合规的渗透测试、安全研究及防御性演练工作。

三、 部署前的核心依赖:API Key

特别注意: PentAGI 的“大脑”依赖于外部 API。在使用之前,你必须准备好以下至少一种 API 密钥:

  • • Google Gemini API(推荐,支持超长上下文)
  • • OpenAI API (GPT-4 级别)
  • • Anthropic API (Claude 系列)

没有 API Key,系统将无法进行逻辑推理和任务决策。


四、 快速部署步骤 (Ubuntu 22.04)

1. 环境初始化

我们将项目部署在 admin 用户目录下:

# 切换至项目目录 mkdir -p /home/admin/pentagi && cd /home/admin/pentagi # 安装 unzip 等必要工具 sudo apt update && sudo apt install -y unzip curl

2. 解决网络难题:配置 Docker 镜像加速

PentAGI 依赖的镜像(如 scraper)超过 1GB,国内下载极易失败,必须配置加速器。

sudo nano /etc/docker/daemon.json

在文件中填入:

{ "registry-mirrors": [ "https://docker.m.daocloud.io", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.anyhub.us.kg", "https://docker.chenby.cn" ] }

保存后执行:

sudo systemctl daemon-reload && sudo systemctl restart docker

3. 获取配置文件与权限优化

下载核心定义文件,并修改端口监听以便在宿主机通过 192.168.x.x 访问。

# 下载定义文件 curl -o .env https://raw.githubusercontent.com/vxcontrol/pentagi/master/.env.example curl -O https://raw.githubusercontent.com/vxcontrol/pentagi/master/docker-compose.yml

修改监听权限:

执行 nano docker-compose.yml,定位到 pentagi 服务的 ports 节点:

  • • 删除${PENTAGI_LISTEN_IP:-127.0.0.1}:${PENTAGI_LISTEN_PORT:-8443}:8443
  • • 替换为"0.0.0.0:8443:8443" (注意双引号)
pentagi: image: ${PENTAGI_IMAGE:-vxcontrol/pentagi:latest} restart: unless-stopped container_name: pentagi hostname: pentagi expose: - 8443/tcp ports: - "0.0.0.0:8443:8443" # 修改后的行 depends_on: pgvector: condition: service_started

4. 填入核心驱动:配置 API Key

nano .env

找到相关 API 变量(如 GEMINI_API_KEY),填入你获取的密钥并保存。


五、 启动与访问

1. 一键启动集群

docker compose up -d

2. 远程登录

在 Windows 宿主机浏览器中输入虚拟机的实际 IP:
https://192.168.x.x:8443

(注意:由于使用自签名证书,请在浏览器弹出“警告”时点击“高级” -> “继续前往”。)

默认登录信息

项目默认值
用户名 (Email)[email protected]
密码 (Password)admin
访问地址https://192.168.x.x:8443

Read more

35道常见的前端vue面试题,零基础入门到精通,收藏这篇就够了

35道常见的前端vue面试题,零基础入门到精通,收藏这篇就够了

来源 | https://segmentfault.com/a/1190000021936876 今天这篇文章给大家分享一些常见的前端vue面试题。有一定的参考价值,有需要的朋友可以参考一下,希望对大家有所帮助。 对于前端来说,尽管css、html、js是主要的基础知识,但是随着技术的不断发展,出现了很多优秀的mv*框架以及小程序框架。因此,对于前端开发者而言,需要对一些前端框架进行熟练掌握。这篇文章我们一起来聊一聊VUE及全家桶的常见面试问题。 1、请讲述下VUE的MVVM的理解? MVVM 是 Model-View-ViewModel的缩写,即将数据模型与数据表现层通过数据驱动进行分离,从而只需要关系数据模型的开发,而不需要考虑页面的表现,具体说来如下: Model代表数据模型:主要用于定义数据和操作的业务逻辑。 View代表页面展示组件(即dom展现形式):负责将数据模型转化成UI 展现出来。 ViewModel为model和view之间的桥梁:监听模型数据的改变和控制视图行为、处理用户交互。通过双向数据绑定把 View 层和 Model 层连接了起来,而View

图片体积大导致页面加载慢?图压3步批量压缩50%+,Web访问速度立升30%

图片体积大导致页面加载慢?图压3步批量压缩50%+,Web访问速度立升30%

作为前端/全栈开发者,你是否常被“首页bundle图2MB加载3s”“CI制品包因截图膨胀200MB”等问题拖慢交付?今天这款开源小工具,能一站式解决批量压图、动图瘦身、比例裁剪等实操难题。 软件核心概述 【图压】「适配环境:Windows 10+ / macOS 10.14+」 图压是一款专注于本地批量图片压缩的轻量级工具,核心优势在于无损视觉质量+可定尺寸+跨平台CLI,能有效解决“PS逐张导出效率低”“在线压缩有次数/大小限制”问题,适配前端资源打包、接口文档截图、产品图床同步等高频场景。 分步实操教程 1. 环境准备 * 下载渠道:https://pan.quark.cn/s/d47c51dd4a58 绿色版:下载对应系统zip,解压后将tuya可执行文件目录加入PATH,命令行验证 tuya --version 返回v0.4.x即安装成功。 2.

Pi0 Web演示系统监控方案:Prometheus+Grafana实时跟踪GPU利用率与QPS

Pi0 Web演示系统监控方案:Prometheus+Grafana实时跟踪GPU利用率与QPS 1. 为什么需要监控Pi0 Web演示系统 Pi0不是普通的大模型Web界面——它是一个视觉-语言-动作流模型的实时控制终端。当你在界面上上传三路640×480相机图像、输入“把蓝色圆柱体放到托盘右侧”这样的指令,系统要在毫秒级完成多模态理解、动作序列预测,并输出6自由度机器人关节指令。这个过程对计算资源极其敏感:GPU显存是否溢出?推理延迟是否突增?QPS(每秒查询数)是否稳定在预期区间?CPU模拟模式下看似运行正常,但一旦切换到真实GPU推理,没有监控就像蒙眼开车。 更关键的是,Pi0的Web演示本身不提供任何运行时指标面板。你无法知道当前GPU利用率是35%还是98%,不清楚第17次请求是否因显存不足被悄悄丢弃,也无从判断“演示模式”降级是否已悄然发生。本文要解决的,就是让这套机器人控制演示系统真正“看得见、管得住、调得准”。 我们不讲抽象概念,只给可立即落地的方案:用Prometheus采集指标、Grafana构建可视化看板、一行命令接入Pi0服务,全程无需修改模型代码,

【Dify】使用 python 调用 Dify 的 API 服务,查看“知识检索”返回内容,用于前端溯源展示

【Dify】使用 python 调用 Dify 的 API 服务,查看“知识检索”返回内容,用于前端溯源展示

本文介绍了如何使用Dify HTTP API实现聊天问答功能,支持文本和图文交互。主要包含三个核心接口:上传文件获取ID、发送聊天消息(可携带图片)和删除会话。 脚本提供了极简封装类DifyChat,包含安全响应解析和可选会话管理功能。使用时需配置API地址、密钥和用户标识,支持纯文本问答和图文问答两种模式,并详细说明了流式输出、多用户适配等扩展场景的实现方法。 参考链接:对接Dify的api接口 上传文件、发起对话、删除对话 一、Dify 聊天示例脚本说明 本脚本演示了如何通过 Dify HTTP API 进行聊天问答,并可选携带图片。核心流程: 1. 上传文件(可选) * 调用 /v1/files/upload 上传本地图片,得到 upload_file_id。 * 只有在需要图文问答时才上传;纯文本时可跳过。 2. 发送对话消息 * 调用 /v1/chat-messages,