知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?

知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?
本文由XYZ SCIENCE官方撰写,未经授权禁止转载
XYZ SCIENCE是国内唯一以自研模型技术提供论文降AI率解决方案的平台,所有用户可以免费使用(www.xyzscience.com

AIGC检测原理

AIGC检测主要有两种方法:一种是传统的统计学方法,另一种是基于深度学习模型(通常是BERT模型)的风格分类方法。

先说结论: 

✅ 知网的AIGC检测由以前的统计学方法升级为了BERT检测模型,这就是为什么之前ai率为0的论文,在知网升级后再去检测会变为100%。

image.png

接下来我们分别介绍以下两种方法是如何进行检测的,我们尽量使用通俗易懂的语言来讲解。

统计学方法

主要统计你论文中的一些特征值是否符合AI论文特征,例如困惑度、突发性等等,我们以突发性(这个概念非常好理解)为例,过一遍检测流程。

突发性:输入内容的每个句子的长度分布。

如果你的论文内容有10句话,每句话都是40-50个字长度,那么你的内容突发性就是很低。

如果每一句长度都一样,那么突发性为0。

AI写的论文的一个特征就是,每个句子长度很相近,即突发性很低。

image.png

也就是说,如果单纯看这一个特征,当你的输入内容每个句子长度都差不多时,就会被判定为AI写作。

深度学习方法

然后我们重点介绍深度学习方法,基于Transformer架构的BERT分类模型:

该方法旨在用大量的人类写作论文数据+AI写作论文数据去训练一个模型,让该模型学会区分这两种写作风格,然后用于AIGC检测。

简单理解,可以将模型理解为一个人,让他每天都去阅读大量的AI论文和人类论文,经过长时间学习,这个人能一眼看出你的论文是不是AI写的

image.png

总的来说,统计学方法就是单纯的计算表面特征,BERT方法是深度理解内容然后区分写作风格。

所以在知网升级前(Turnitin也是如此),用一些指令让AI进行改写,或者直接将所有句号改为逗号等等操作,对于降AI率非常有效,因为这本质是改变统计方法中统计的那些特征值,如突发性。
但是知网升级后,BERT模型可不管你逗号句号的,它负责整体理解内容并判断,只要你还是用AI改写的,那依旧逃不过检测。

image.png

那么,为什么 BERT 对AI生成内容检测如此严格?

用指令二次改写也无法逃过?

image.png

因为现有的AI模型如GPT、DeepSeek等,是基于Transformer架构,而BERT检测模型也是基于Transformer架构,不同的是:

✅  GPT 使用Transformer架构 生成内容(例如生成论文)

✅  BERT则是使用Transformer架构 理解内容(识别论文风格)

所以,你让AI去改写AI生成的内容,本质上还是AI在输出,那么就很难逃过被检测识别的命运。

我们如何解决降AI率

根据检测原理,针对性的开发相应的对抗模型。

从零开始训练一个模型,让它从“出生”那一刻起就学习——像人类一样写作。

不是微调、不是模仿现有 AI 的语料,而是真正意义上:

让模型从第一行参数开始,就只接触人类写作,而不是AI生成内容。

image.png

第一步:训练 AI 文本检测模型

我们先用 BERT 架构训练了一个检测模型,让它学会:

✅ 区分人类写作 vs AI 写作
✅ 判断文本是否具有“人类风格”

简单说,这个模型就是我们之前提到的和知网一样的 AIGC检测器

注意:只是技术架构相同,但是训练数据不同,检测结果不会完全一致


 第二步:训练写作模型

然后我们用700万篇论文数据构成的语料,从零开始训练一个生成模型(写论文的模型),让它学习:

  • 人类写作逻辑
  • 语言风格
  • 文章结构
  • 表达方式
让模型真正理解人类是怎么写文章的,而不是照搬模板。

我们把两个模型连起来:

✅ 写作模型生成内容
✅ 检测模型判断“像不像人写的”
✅ 给出评分和反馈
✅ 写作模型根据反馈继续学习

形成一个闭环:

写作 → 评估 → 改进 → 再写

image.png

最终成果  我们得到两款核心模型:

✅高精度 AIGC 检测模型
用于判断论文内容是否为 AI 生成(AI风格)

✅人类风格写作模型

可以将任何AI生成的论文改写为人类的写作风格

注:所有训练数据均为论文,所以模型不适合其它领域(如小说、新闻等)

预计12月份推出一个更强大的新模型

碎碎念

AI的出现应该是辅助我们提升写作效率,而不应该在查重的基础上,再让我们背上AIGC检测的包袱。

论文查重尚可理解,哪里标红都有解释,重复段落是和哪篇文章重复了,那么ai率呢?作何解释?完全的黑箱操作,平台说啥就是啥!

各个平台,如知网、万方、维普等对于同一篇论文的检测结果都不一样

因为AIGC检测结果无法解释,靠写作风格判定

image.png

前文我已经介绍,训练一个这样的检测器,没什么技术难度(当然也没什么成本),主要是数据方面,也就是说:

这些所谓的提供AIGC检测服务的平台,基于大量的学生毕业论文(期刊论文)去训练模型,然后再反过来向学生收取高昂的检测费用,形成一个完美的商业闭环。perfect!

image.png

对于一个学生来说,动辄几十上百的AIGC检测费用,合适吗?

(如果任何学校或学术机构愿意使用我们的AIGC检测模型作为替代方案,请联系我们,我们可以免费提供模型并辅助部署)

Read more

【论文阅读笔记】GlobeDiff:用扩散模型从局部观测生成全局状态,破解多智能体部分可观测难题

ICLR 2026 poster GlobeDiff: State Diffusion Process for Partial Observability in Multi-Agent Systemopenreview: https://openreview.net/forum?id=96g2BRsYZXarXiv: https://arxiv.org/abs/2602.15776 在多智能体强化学习(MARL)中,部分可观性(Partial Observability, PO) 是一个长期存在的难题。每个智能体只能看到局部信息,却需要基于此做出全局协调的决策。现有的方法(如信念状态估计或通信)往往难以准确还原全局状态,容易出现“模式坍塌”(Mode Collapse),即把多种可能的全局状态平均成一个模糊的状态,导致决策失误。 本文介绍了 GlobeDiff,一种基于条件扩散模型(Conditional Diffusion Model)

格拉姆角场(Gramian Angular Field, GAF)详解

格拉姆角场(Gramian Angular Field, GAF)详解

格拉姆角场(Gramian Angular Field, GAF)是一种于2015年被提出的时间序列可视化与特征编码技术。其核心思想是将一维时间序列转换为二维图像,并在此过程中保留原始序列的时间依赖关系与数值特征。目前,GAF已在故障诊断、生物电信号分析、射频信号识别等多个领域得到广泛应用。 GAF的实质是借助极坐标变换与格拉姆矩阵的结构,将一维序列中的“时间–数值”映射为图像中的像素关联信息。生成的图像矩阵的行列索引直接对应时间顺序,使其能够兼容主流图像识别模型(如CNN),从而挖掘出时间序列中的深层特征。 一、GAF 的核心设计逻辑 传统的一维时间序列包含两类基本信息:数值大小(如振幅)和时间顺序(如信号随时间的变化趋势)。折线图等常规方法虽能展示趋势,却难以显式表达不同时刻之间的数值关联。GAF 通过以下三步逻辑实现信息的结构化编码: 1. 数值归一化:将原始序列缩放至[-1, 1]区间,消除量纲与异常值影响,为极坐标变换提供基础; 2. 极坐标转换:将时间索引映射为半径,数值大小映射为角度,建立 时间-数值 在极坐标系统中的对应关系; 3. 格拉姆矩阵构建:

RTD1296PB与RK3568在NAS与智能家居中的实战性能较量

1. 从NAS到智能家居:为什么需要关注这两颗芯片? 如果你正在搭建家用NAS系统或者规划智能家居中枢设备,处理器选型绝对是绕不开的关键决策。RTD1296PB和RK3568作为市面上主流的中端ARM处理器,经常让开发者陷入选择困难。我在实际项目中用过这两款芯片,深刻体会到它们的差异不仅体现在参数表上,更直接影响着设备的实际体验。 RTD1296PB是瑞昱半导体面向家庭影音市场推出的老将,凭借出色的视频处理能力和成熟的OpenWRT支持,在早期NAS设备中占据重要地位。而瑞芯微的RK3568则是后来居上的多面手,22nm制程搭配Cortex-A55架构,在保持低功耗的同时提供了更强的扩展性。实测下来,两者的性能差距在日常使用中可能不会立即显现,但在特定场景下会拉开明显差距。 2. 硬件架构深度对比:藏在参数背后的细节 2.1 计算核心与制程工艺 先看最核心的CPU部分,RK3568采用4核Cortex-A55设计,最高主频2.0GHz,相比RTD1296PB的Cortex-A53架构有着明显的IPC提升。我在压力测试中发现,同样的文件压缩任务,RK3568能快15-20%。

Flash Table实测:JAI赋能低代码开发,重塑企业级应用构建范式

Flash Table实测:JAI赋能低代码开发,重塑企业级应用构建范式

目录 * 🔍 引言 * 1.1 什么是Flash Table * 1.2 低代码平台的进化与FlashTable的革新 * ✨FlashTable背景:为什么需要新一代低代码平台? * 2.1 传统开发的痛点 * 2.2 低代码平台的局限 * 2.3 FlashTable的差异化定位 * 💻 FlashTable安装:Docker部署&Jar包部署 * 3.1 基础环境要求 * 3.2 Docker部署(推荐方案) * 3.3 Jar包部署(无Docker环境) * 3.4 常见问题 * 📚FlashTable功能深度评测:从案例看真实能力 * 4.1 数据孤岛?FlashTable 自动化匹配字段 * 4.2 FlashTable复杂表单的开发挑战 * 4.3