知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?

知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?
本文由XYZ SCIENCE官方撰写,未经授权禁止转载
XYZ SCIENCE是国内唯一以自研模型技术提供论文降AI率解决方案的平台,所有用户可以免费使用(www.xyzscience.com

AIGC检测原理

AIGC检测主要有两种方法:一种是传统的统计学方法,另一种是基于深度学习模型(通常是BERT模型)的风格分类方法。

先说结论: 

✅ 知网的AIGC检测由以前的统计学方法升级为了BERT检测模型,这就是为什么之前ai率为0的论文,在知网升级后再去检测会变为100%。

image.png

接下来我们分别介绍以下两种方法是如何进行检测的,我们尽量使用通俗易懂的语言来讲解。

统计学方法

主要统计你论文中的一些特征值是否符合AI论文特征,例如困惑度、突发性等等,我们以突发性(这个概念非常好理解)为例,过一遍检测流程。

突发性:输入内容的每个句子的长度分布。

如果你的论文内容有10句话,每句话都是40-50个字长度,那么你的内容突发性就是很低。

如果每一句长度都一样,那么突发性为0。

AI写的论文的一个特征就是,每个句子长度很相近,即突发性很低。

image.png

也就是说,如果单纯看这一个特征,当你的输入内容每个句子长度都差不多时,就会被判定为AI写作。

深度学习方法

然后我们重点介绍深度学习方法,基于Transformer架构的BERT分类模型:

该方法旨在用大量的人类写作论文数据+AI写作论文数据去训练一个模型,让该模型学会区分这两种写作风格,然后用于AIGC检测。

简单理解,可以将模型理解为一个人,让他每天都去阅读大量的AI论文和人类论文,经过长时间学习,这个人能一眼看出你的论文是不是AI写的

image.png

总的来说,统计学方法就是单纯的计算表面特征,BERT方法是深度理解内容然后区分写作风格。

所以在知网升级前(Turnitin也是如此),用一些指令让AI进行改写,或者直接将所有句号改为逗号等等操作,对于降AI率非常有效,因为这本质是改变统计方法中统计的那些特征值,如突发性。
但是知网升级后,BERT模型可不管你逗号句号的,它负责整体理解内容并判断,只要你还是用AI改写的,那依旧逃不过检测。

image.png

那么,为什么 BERT 对AI生成内容检测如此严格?

用指令二次改写也无法逃过?

image.png

因为现有的AI模型如GPT、DeepSeek等,是基于Transformer架构,而BERT检测模型也是基于Transformer架构,不同的是:

✅  GPT 使用Transformer架构 生成内容(例如生成论文)

✅  BERT则是使用Transformer架构 理解内容(识别论文风格)

所以,你让AI去改写AI生成的内容,本质上还是AI在输出,那么就很难逃过被检测识别的命运。

我们如何解决降AI率

根据检测原理,针对性的开发相应的对抗模型。

从零开始训练一个模型,让它从“出生”那一刻起就学习——像人类一样写作。

不是微调、不是模仿现有 AI 的语料,而是真正意义上:

让模型从第一行参数开始,就只接触人类写作,而不是AI生成内容。

image.png

第一步:训练 AI 文本检测模型

我们先用 BERT 架构训练了一个检测模型,让它学会:

✅ 区分人类写作 vs AI 写作
✅ 判断文本是否具有“人类风格”

简单说,这个模型就是我们之前提到的和知网一样的 AIGC检测器

注意:只是技术架构相同,但是训练数据不同,检测结果不会完全一致


 第二步:训练写作模型

然后我们用700万篇论文数据构成的语料,从零开始训练一个生成模型(写论文的模型),让它学习:

  • 人类写作逻辑
  • 语言风格
  • 文章结构
  • 表达方式
让模型真正理解人类是怎么写文章的,而不是照搬模板。

我们把两个模型连起来:

✅ 写作模型生成内容
✅ 检测模型判断“像不像人写的”
✅ 给出评分和反馈
✅ 写作模型根据反馈继续学习

形成一个闭环:

写作 → 评估 → 改进 → 再写

image.png

最终成果  我们得到两款核心模型:

✅高精度 AIGC 检测模型
用于判断论文内容是否为 AI 生成(AI风格)

✅人类风格写作模型

可以将任何AI生成的论文改写为人类的写作风格

注:所有训练数据均为论文,所以模型不适合其它领域(如小说、新闻等)

预计12月份推出一个更强大的新模型

碎碎念

AI的出现应该是辅助我们提升写作效率,而不应该在查重的基础上,再让我们背上AIGC检测的包袱。

论文查重尚可理解,哪里标红都有解释,重复段落是和哪篇文章重复了,那么ai率呢?作何解释?完全的黑箱操作,平台说啥就是啥!

各个平台,如知网、万方、维普等对于同一篇论文的检测结果都不一样

因为AIGC检测结果无法解释,靠写作风格判定

image.png

前文我已经介绍,训练一个这样的检测器,没什么技术难度(当然也没什么成本),主要是数据方面,也就是说:

这些所谓的提供AIGC检测服务的平台,基于大量的学生毕业论文(期刊论文)去训练模型,然后再反过来向学生收取高昂的检测费用,形成一个完美的商业闭环。perfect!

image.png

对于一个学生来说,动辄几十上百的AIGC检测费用,合适吗?

(如果任何学校或学术机构愿意使用我们的AIGC检测模型作为替代方案,请联系我们,我们可以免费提供模型并辅助部署)

Read more

【AI大模型学习日志4:深度拆解Meta Llama系列——全球开源大模型的事实标准与AI普惠化的奠基者】

在上一篇AI大模型学习日志中,我们深度拆解了Anthropic的Claude系列,它以“安全对齐+长上下文对话”为核心差异化,成为企业级对话场景的标杆,凭借严谨的内容输出与隐私保护优势,在政企、法律等强合规领域站稳脚跟。而在大模型赛道,有一款产品彻底打破了“闭源模型垄断高端能力”的格局——它没有高调的发布会,没有复杂的商业化噱头,仅通过开源免费的模式,就推动了AI技术的普惠化普及,成为全球数千万开发者的首选开源底座,定义了开源大模型的事实标准,它就是Meta(原Facebook)研发的Llama(Large Language Model Meta AI)系列。 在Llama出现之前,开源大模型普遍存在“性能弱、场景适配差、商用受限”的痛点,而闭源大模型的API调用成本高昂,让中小企业与独立开发者望而却步,AI技术的普惠化陷入瓶颈。Llama的横空出世,不仅填补了“高性能开源大模型”的空白,更以宽松的开源许可、轻量化的部署优势,让全球开发者都能零成本获取旗舰级AI能力,推动了开源大模型生态的爆发式增长。本文所有核心信息均以Meta官方技术白皮书、Llama版本更新公告、开源协议文档及权

2026年知网AIGC检测算法大升级:这些变化你必须知道

2026年知网AIGC检测算法大升级:这些变化你必须知道

2026年知网AIGC检测算法大升级:这些变化你必须知道 2025年12月,知网悄悄升级了AIGC检测算法。 很多同学发现:之前检测过关的论文,重新查一次突然变成了红色。问群里的朋友,情况都差不多。 今天这篇文章解读一下知网新算法的变化,以及怎么应对。 知网AIGC检测3.0:主要变化 知网这次升级的版本被称为「AIGC检测3.0」。和之前相比,主要有三个变化: 变化一:检测维度增加 旧版本主要看「语言模式」,也就是用词和句式是否符合AI特征。 新版本增加了「语义逻辑」维度。它会分析句子之间的逻辑关系,判断论证过程是否「太完美」「太规整」。 人类写作会有跳跃、有转折、有不那么顺畅的地方。AI生成的文本逻辑严密、层层递进,反而不像人写的。 这就是为什么有些同学的论文明明是自己写的,但因为「逻辑太好」反而被判为AI生成。 变化二:判定阈值下调 旧版本:AIGC值≥0.7判定为疑似AI生成 新版本:AIGC值≥0.

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破 文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破,本文介绍百度文心一言 4.5 开源模型中 ERNIE-4.5-0.3B 的轻量化部署与效能。该 3 亿参数模型破解大模型落地的算力、效率、安全困局,在 FastDeploy 框架下实现单张 RTX 4090 承载百万级日请求等突破。文章解析其技术架构,给出本地化部署步骤,通过工业场景、中文特色、工程数学计算等测试验证其能力,还提供性能优化、安全加固及故障排查方法,展现其轻量高效与能力均衡特性。 引言:轻量化部署的时代突围 ✨ 当行业还在为千亿参数模型的算力消耗争论不休时,百度文心一言4.5开源版本以颠覆性姿态撕开了一条新赛道。2025年6月30日,💥 文心一言4.5系列模型正式开源,其中ERNIE-4.5-0.3B这款仅3亿参数的轻量模型,为破解大模型产业落地的三大困局提供了全新方案: * 算力成本困局:

最完整WhisperLiveKit指南:从安装到生产部署的AI语音识别全流程

最完整WhisperLiveKit指南:从安装到生产部署的AI语音识别全流程 【免费下载链接】WhisperLiveKitReal-time, Fully Local Speech-to-Text and Speaker Diarization. FastAPI Server & Web Interface 项目地址: https://gitcode.com/GitHub_Trending/wh/WhisperLiveKit 你是否还在为实时语音转文字的延迟问题困扰?是否需要一个完全本地化部署的解决方案来保护数据隐私?WhisperLiveKit作为GitHub热门的开源项目,将彻底改变你处理实时语音识别的方式。本文将带你从安装到生产部署,掌握这一强大工具的全流程应用。 读完本文,你将能够: * 快速搭建本地语音识别服务 * 根据硬件条件选择最优模型配置 * 实现多语言实时转录与说话人分离 * 部署生产级别的Web应用与Chrome扩展 * 通过Docker容器化实现跨平台部署 为什么选择WhisperLiveKit? 传统的Whisper模型设计用于处理完整语