Shannon:让 AI 替你当黑客,自动找出 Web 应用的真实漏洞

Shannon:让 AI 替你当黑客,自动找出 Web 应用的真实漏洞

Shannon:让 AI 替你当黑客,自动找出 Web 应用的真实漏洞

你的代码每天都在更新,但渗透测试一年只做一次?Shannon 来填补这 364 天的安全空白。

了解 Shannon

Shannon 是一个全自动 AI 渗透测试工具,由 Keygraph 团队开源(AGPL-3.0 协议)。它不是传统的漏洞扫描器——它模拟真正的黑客行为,自主分析你的源代码,操控浏览器执行真实攻击,最终交付一份的渗透测试报告。

在 XBOW 基准测试中,Shannon Lite 取得了 96.15% 的成功率。GitHub 上已获得 10.6k Star,是近期安全领域最受关注的开源项目之一。


运行原理

Shannon 模拟人类渗透测试人员的工作方法,采用多智能体架构,分四个阶段执行:

阶段一:侦察(Reconnaissance) → 分析源代码 + 使用 Nmap、Subfinder 等工具扫描目标,构建完整的攻击面地图。

阶段二:漏洞分析(Vulnerability Analysis) → 多个专项 Agent 并行工作,分别针对注入、XSS、SSRF、认证绕过等 OWASP 漏洞类型进行数据流追踪,输出"可能的攻击路径"假设列表。

阶段三:漏洞利用(Exploitation) → 对每条假设路径执行真实攻击——包括浏览器自动化、命令行工具、自定义脚本。严格执行"打不通就不报"策略,消灭误报。

阶段四:报告(Reporting) → 汇总所有验证成功的漏洞,生成渗透测试级报告,每个漏洞附带可直接复制粘贴的 PoC 复现步骤。

整个过程完全自主运行,从启动到出报告,你只需要一条命令。

 ┌──────────────────────┐ │ Reconnaissance │ └──────────┬───────────┘ │ 

Read more

知网aigc检测多少算正常?怎么把知网ai率降到15%!

知网aigc检测多少算正常?怎么把知网ai率降到15%!

2025年起,高校已明确要求毕业论文要检测AIGC率,AI率高于30%或40%就不能参加答辩,而部分学校、硕士论文更加严格,要求在20%以内。 这其中,大多数高校使用的AIGC检测系统是知网、万方、维普等主流查重系统,这些系统的检测算法更加严谨,结果更可靠。 目前市面上主流的AIGC检测工具大概率是根据数据库中已有的文章,做分类模型,将检测文章输入,进而根据语言风格、写作习惯区分AI生成和人为写作。 但由于大模型的训练就是根据人类语料库进行的,哪怕是纯手写的论文也有概率被判定为AI痕迹,导致AIGC查重率过高。 有网友将朱自清的《荷塘月色》、刘慈欣的《流浪地球》上传到检测平台,意外发现这些文章的AI疑似度分别高达62.88%和52.88%。 比话就是为此类情况设计,帮助师生减少这种AI率误伤的概率。通过语义学习来优化内容质量,在保持论文学术专业性的同时降AI率,是师生们信赖的工具。 一、为什么比话能有效降低知网AIGC率? https://www.openorm.com/?source=ZEEKLOG 比话能很好地降知网ai率,有2个原因,一个是降AI工具通用的语义

基于Whisper-large-v3的多语言翻译系统开发

基于Whisper-large-v3的多语言翻译系统开发 想象一下这样的场景:一场国际线上会议正在进行,参会者来自世界各地,说着不同的语言。一位德国同事用德语发言,一位日本伙伴用日语提问,而你作为会议组织者,需要实时理解所有人的发言,并确保沟通顺畅。传统做法是雇佣多名翻译,成本高昂且响应延迟。现在,有了基于Whisper-large-v3构建的多语言翻译系统,这一切都可以自动化完成,而且成本只是传统方案的零头。 本文将带你一步步构建这样一个系统,从语音识别到文本翻译,形成一个完整的流水线。无论你是想为跨国团队开发内部工具,还是想为内容平台添加多语言字幕功能,这套方案都能为你提供一个坚实的起点。 1. 为什么选择Whisper-large-v3? 在开始动手之前,我们先聊聊为什么Whisper-large-v3是构建多语言翻译系统的理想选择。 Whisper-large-v3是OpenAI开源的语音识别模型,它最大的特点就是“多语言”和“高精度”。这个模型在超过100万小时的音频数据上训练过,支持99种语言的识别,包括英语、中文、法语、德语、日语、韩语等主流语言,甚至还能识别

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 年,AI 编码已经彻底完成了从 “可选加分项” 到 “开发者刚需” 的全面渗透。行业数据给出了最直观的印证:95% 的开发者每周都会使用 AI 编码工具,75% 的开发者已经用 AI 完成了 50% 以上的编码工作。但与极高渗透率形成鲜明反差的是,绝大多数开发者都选错了适配自身工作流的工具 —— 很多人依然在跟风使用大众普及度最高的产品,却忽略了不同工具背后完全不同的设计哲学、能力边界与适用场景。 从 2021 年 GitHub Copilot 上线开启 AI 编码 1.0 时代,到 2026 年 AI 编码已经从 “单行代码补全” 进化到 “全流程自主工程化”,赛道已经形成了三大头部产品的三分天下格局:Anthropic 推出的 Claude Code、Anysphere 打造的

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&