知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?

知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?
本文由XYZ SCIENCE官方撰写,未经授权禁止转载
XYZ SCIENCE是国内唯一以自研模型技术提供论文降AI率解决方案的平台,所有用户可以免费使用(www.xyzscience.com

AIGC检测原理

AIGC检测主要有两种方法:一种是传统的统计学方法,另一种是基于深度学习模型(通常是BERT模型)的风格分类方法。

先说结论: 

✅ 知网的AIGC检测由以前的统计学方法升级为了BERT检测模型,这就是为什么之前ai率为0的论文,在知网升级后再去检测会变为100%。

image.png

接下来我们分别介绍以下两种方法是如何进行检测的,我们尽量使用通俗易懂的语言来讲解。

统计学方法

主要统计你论文中的一些特征值是否符合AI论文特征,例如困惑度、突发性等等,我们以突发性(这个概念非常好理解)为例,过一遍检测流程。

突发性:输入内容的每个句子的长度分布。

如果你的论文内容有10句话,每句话都是40-50个字长度,那么你的内容突发性就是很低。

如果每一句长度都一样,那么突发性为0。

AI写的论文的一个特征就是,每个句子长度很相近,即突发性很低。

image.png

也就是说,如果单纯看这一个特征,当你的输入内容每个句子长度都差不多时,就会被判定为AI写作。

深度学习方法

然后我们重点介绍深度学习方法,基于Transformer架构的BERT分类模型:

该方法旨在用大量的人类写作论文数据+AI写作论文数据去训练一个模型,让该模型学会区分这两种写作风格,然后用于AIGC检测。

简单理解,可以将模型理解为一个人,让他每天都去阅读大量的AI论文和人类论文,经过长时间学习,这个人能一眼看出你的论文是不是AI写的

image.png

总的来说,统计学方法就是单纯的计算表面特征,BERT方法是深度理解内容然后区分写作风格。

所以在知网升级前(Turnitin也是如此),用一些指令让AI进行改写,或者直接将所有句号改为逗号等等操作,对于降AI率非常有效,因为这本质是改变统计方法中统计的那些特征值,如突发性。
但是知网升级后,BERT模型可不管你逗号句号的,它负责整体理解内容并判断,只要你还是用AI改写的,那依旧逃不过检测。

image.png

那么,为什么 BERT 对AI生成内容检测如此严格?

用指令二次改写也无法逃过?

image.png

因为现有的AI模型如GPT、DeepSeek等,是基于Transformer架构,而BERT检测模型也是基于Transformer架构,不同的是:

✅  GPT 使用Transformer架构 生成内容(例如生成论文)

✅  BERT则是使用Transformer架构 理解内容(识别论文风格)

所以,你让AI去改写AI生成的内容,本质上还是AI在输出,那么就很难逃过被检测识别的命运。

我们如何解决降AI率

根据检测原理,针对性的开发相应的对抗模型。

从零开始训练一个模型,让它从“出生”那一刻起就学习——像人类一样写作。

不是微调、不是模仿现有 AI 的语料,而是真正意义上:

让模型从第一行参数开始,就只接触人类写作,而不是AI生成内容。

image.png

第一步:训练 AI 文本检测模型

我们先用 BERT 架构训练了一个检测模型,让它学会:

✅ 区分人类写作 vs AI 写作
✅ 判断文本是否具有“人类风格”

简单说,这个模型就是我们之前提到的和知网一样的 AIGC检测器

注意:只是技术架构相同,但是训练数据不同,检测结果不会完全一致


 第二步:训练写作模型

然后我们用700万篇论文数据构成的语料,从零开始训练一个生成模型(写论文的模型),让它学习:

  • 人类写作逻辑
  • 语言风格
  • 文章结构
  • 表达方式
让模型真正理解人类是怎么写文章的,而不是照搬模板。

我们把两个模型连起来:

✅ 写作模型生成内容
✅ 检测模型判断“像不像人写的”
✅ 给出评分和反馈
✅ 写作模型根据反馈继续学习

形成一个闭环:

写作 → 评估 → 改进 → 再写

image.png

最终成果  我们得到两款核心模型:

✅高精度 AIGC 检测模型
用于判断论文内容是否为 AI 生成(AI风格)

✅人类风格写作模型

可以将任何AI生成的论文改写为人类的写作风格

注:所有训练数据均为论文,所以模型不适合其它领域(如小说、新闻等)

预计12月份推出一个更强大的新模型

碎碎念

AI的出现应该是辅助我们提升写作效率,而不应该在查重的基础上,再让我们背上AIGC检测的包袱。

论文查重尚可理解,哪里标红都有解释,重复段落是和哪篇文章重复了,那么ai率呢?作何解释?完全的黑箱操作,平台说啥就是啥!

各个平台,如知网、万方、维普等对于同一篇论文的检测结果都不一样

因为AIGC检测结果无法解释,靠写作风格判定

image.png

前文我已经介绍,训练一个这样的检测器,没什么技术难度(当然也没什么成本),主要是数据方面,也就是说:

这些所谓的提供AIGC检测服务的平台,基于大量的学生毕业论文(期刊论文)去训练模型,然后再反过来向学生收取高昂的检测费用,形成一个完美的商业闭环。perfect!

image.png

对于一个学生来说,动辄几十上百的AIGC检测费用,合适吗?

(如果任何学校或学术机构愿意使用我们的AIGC检测模型作为替代方案,请联系我们,我们可以免费提供模型并辅助部署)

Read more

FPGA高速通信:Aurora64B/66B IP使用指南

Aurora 64B/66B IP核配置及使用详解 Aurora 64B/66B 是 Xilinx(现 AMD)提供的一种高速串行通信协议 IP 核,专为 FPGA 设计,支持点对点数据传输,适用于数据中心、高性能计算等场景。本指南将帮助初学者轻松调用该 IP 核,实现编码、译码和传输回环功能。内容包括 IP 核配置、端口介绍、使用方法、example design 调用、关键模块(如 framegen 和 framecheck)的作用,以及完整实现步骤。指南基于 Vivado 设计工具,确保真实可靠。 1. Aurora 64B/66B IP核简介 Aurora

2026低代码选型指南:AI与低代码双向赋能,破解企业数字化落地难题

2026低代码选型指南:AI与低代码双向赋能,破解企业数字化落地难题

在数字化转型深化的今天,低代码平台已从“边缘工具”升级为企业数字化的核心基建,成为破解“开发效率低、技术门槛高、系统集成难”的关键抓手。根据Gartner预测,2026年全球80%的新应用将通过低代码构建,但企业在选型过程中,往往陷入“重功能、轻适配”“追概念、缺落地”的误区——要么平台易用性不足,业务人员无法上手;要么技术拓展性欠缺,难以支撑复杂业务场景;要么AI功能流于表面,无法真正赋能全流程。 真正优秀的低代码平台,应当兼顾“易用性、专业性、扩展性”三大核心,而2026年的核心趋势的是“AI与低代码深度融合”:AI降低使用门槛,低代码提供落地底座,二者互为支撑、双向赋能,才能真正让数字化转型落地到每一个业务环节。 一、企业低代码选型的3个核心维度(避开90%的坑) 很多企业选型时,过度关注“拖拽功能多炫”“模板数量多少”,却忽略了核心适配性,导致项目上线后无法落地、反复返工。结合上千家企业落地经验,

Stable Diffusion 秋叶大神2025最新整合一键安装包

Stable Diffusion 秋叶大神2025最新整合一键安装包

这段时间我在折腾 Stable Diffusion,期间试过很多安装方式。有手动安装的,也有别人做好的整合包。手动安装的方式对环境要求高,步骤也多,系统要装 Python,要装依赖,还要配好运行库,哪一步出错都要重新查资料,挺消耗时间。后来了解到秋叶大神做的整合一键安装包,这个版本省掉了很多折腾,对新手比较友好。 我自己把安装流程整理了一遍,又结合网上的信息,把一些需要注意的地方写下来,希望能帮到想尝试 Stable Diffusion 的人。 这里完整下载链接 秋叶整合包是什么 这个整合包属于别人已经帮你配好的版本,里面把 Stable Diffusion WebUI、模型管理、插件、运行环境都准备好了。下载之后按照提示解压,点一下启动脚本就能跑起来,不需要另外去折腾环境。 整合包里放的 WebUI 是常见的 AUTOMATIC1111 版本,所以大部分教程都能直接用。适合想直接出图、想先体验一下模型效果的人。 系统环境方面 我现在用的是 Windows 电脑,所以下面写的内容主要基于