怎么样才能降低AIGC(亲测好用)

怎么样才能降低AIGC(亲测好用)

以下博文将教会你如何降低自己论文的AIGC率,简单易学,但是不包会。

方法一:手动让AI变得像人

首先先生成一个AIGC检测报告,反正又不要钱,只要进行漫长的等待:

然后,重点来了,你照着改就行了:

1.内容格式不对被判定AIGC(详细可见博主上篇文章

看过博主的毕业论文撰写指南的同学都知道,一定要用大段大段的文字来让他生成,总之句子一定要有主语,以及不要把一个短句后前后加句号,因为格子达是以一个句号来查AGC的,这样小句子非常容易风险。

2.AI特别喜欢使用“首先,其次,另外,此外,因此”,而且用逗号隔开,这时候就要把这句话连接起来。

比如:因此,A1GC率的问题确实感到烦恼和困扰。

改成:所以AGC率的问题确实感到烦恼和困扰。

3.一般没有主语的句子,会被判定为AI写作!降A1的时候一定要把句子的主语加上。

比如:因此,AGC率的问题确实感到烦恼和困扰。

改成:所以AGC率的问题确实让我感到烦恼和困扰。

4.内容空洞,没有例子,干货

AI写的论文看起来好像有点道理,但实际上没有实质性内容,纯凑字数,也没有具体的例子或干货。所以,下次降AI的时候,得加入一些论文内容和实例,这样才能让文章更有干货。

5.用自己的话把AI部分复述一遍,加点人话

把自己想象成一个老师,教别人你的文章。可能别人未必听得懂,所以要加些通俗易懂的话把风险高的句子融合在里面,这样降AIGC非常快!

比如:因此,AGC率的问题确实感到烦恼和困扰。

改成:AGC率的问题让我感到很烦恼!

6.删除大法

字数够了的话,直接把A1GC那部分砍掉,这是最省事的办法!

7.词语替换

把原来的表述换个说法,用长句替换短句,如果一个句子里有重复的词,那就换成同义词,让文章看起来丰富一些

8.删字扩写

如果专业词汇解释怎么都搞不定,那就狠下心来删掉一些不重要的解释,或者用大白话把专有名词解释一遍。然后在能展开的地方,尽量多举些例子,让论文看起来更充实。

9.翻译大法

使用翻译大法的时候一定要尝试多种翻译软件,因为有的软件翻译出来就是Al,有的软件翻译出来没有AI。翻译可以多次使用,比如从中->英->中,将重复率从89%降低到75.然后再使用中->法->日->法->中,多次使用查重率从75%降低到62%。翻译软件首推deep I,效果最好。但deepl国内使用不稳定也可以使用有道翻译、百度翻译或者360翻译。

方法二:一段只有一个句号的文本

1.神奇冷知识

冷知识来了:

毕业论文的查重方法是不会去看有参考文献引用的部分的

而且最好玩的是,这个引用部分是按照句号进行分隔的,所以如果你整段内容中只有一个句号,且这段内容有参考文献时,那么恭喜你!你这篇内容的重复率和AIGC率都是0。

情感的融入同样是让文本显得更真实的重要步骤。人类的情感是复杂而多变的,写作中常常会自然地流露出喜怒哀乐。在修改 AIGC 文本时,要善于捕捉这些情感的波动,并在适当的地方加以强化。例如,在描述一个令人感动的故事时,加入一些关于内心感受的描述,如“那一刻,我的心中涌起一股暖流,仿佛被阳光照耀”,让读者能够与文本产生情感共鸣。此外,真人写作往往具有一定的逻辑性和连贯性,这在 AIGC 文本中可能因为生成算法的限制而有所欠缺。因此,对文本结构进行调整也是必要的。可以尝试将内容重新组织,使其更加符合人类的思维习惯。例如,通过设置悬念、层层递进的方式来引导读者,或者在段落之间增加过渡句,使整个文本的衔接更加流畅。

from transformers import pipeline # 初始化情感分析和文本生成工具 emotion_analyzer = pipeline("sentiment-analysis") # 示例文本(来自用户提供的内容)" 冷知识来了: 毕业论文的查重方法是不会去看有参考文献引用的部分的 而且最好玩的是,这个引用部分是按照句号进行分隔的,所以如果你整段内容中只有一个句号,且这段内容有参考文献时,那么恭喜你!你这篇内容的重复率和AIGC率都是0。 情感的融入同样是让文本显得更真实的重要步骤。人类的情感是复杂而多变的,写作中常常会自然地流露出喜怒哀乐。在修改 AIGC 文本时,要善于捕捉这些情感的波动,并在适当的地方加以强化。例如,在描述一个令人感动的故事时,加入一些关于内心感受的描述,如“那一刻,我的心中涌起一股暖流,仿佛被阳光照耀”,让读者能够与文本产生情感共鸣。此外,真人写作往往具有一定的逻辑性和连贯性,这在 AIGC 文本中可能因为生成算法的限制而有所欠缺。因此,对文本结构进行调整也是必要的。可以尝试将内容重新组织,使其更加符合人类的思维习惯。例如,通过设置悬念、层层递进的方式来引导读者,或者在段落之间增加过渡句,使整个文本的衔接更加流畅。 """ # 情感分析 emotion = emotion_analyzer(text)[0]['label'] print(f"Detected emotion: {emotion}") # 优化文本示例(根据情感调整文本) if emotion == 'POSITIVE': enhanced_text = "在撰写毕业论文时,了解查重机制可以高效地降低重复率。特别有趣的是,查重系统通常会忽略带有正确引用的段落。如果你将引用内容与一个句号分隔开,那么恭喜你!这段引用内容将不会影响你的论文重复率。同时,记得在写作中融入真实的情感,比如在描述一个令人感动的故事时,可以这样写道:'那一刻,我的心中涌起一股暖流,仿佛被阳光照耀'。这种情感表达能让你的论文更生动,更能与读者产生共鸣。" else: enhanced_text = "毕业论文的查重机制有一些有趣的方面需要了解。例如,正确引用的参考文献部分通常会被查重系统忽略。如果你将引用内容与一个句号分隔开,那么这段引用内容将不会计算在重复率中。在写作过程中,也要注意情感的融入,让文字更具人情味。比如,当你描述一个感人的场景时,可以加入内心感受的描写:'那一刻,我的心中涌起一股暖流,仿佛被阳光照耀'。这样的细节不仅能提升论文的吸引力,还能让读者感受到作者的真实情感。" # 输出优化后的文本 print("\nOptimized Text:") print(enhanced_text)

这个代码示例展示了如何利用情感分析来调整文本,使其显得更真实、更人性化。首先,通过情感分析工具检测文本的情感倾向。然后,根据检测到的情感,生成一个经过优化的文本版本。在这个示例中,优化后的文本不仅考虑了参考文献的查重问题,还融入了情感表达,使文本更具人情味。

2.水文大法

AIGC 率的检测是一个复杂且多维度的领域,它涉及到多种技术原理相互协作与融合来实现对 AIGC(人工智能生成内容)占比的准确评估。从本质上来说,主要依赖于深度学习模型的强大特征提取与模式识别能力。这些深度学习模型,通常是经过在海量文本数据上进行预训练得到的,例如基于 Transformer 架构的模型。它们能够学习到文本中丰富的语法、语义以及语境信息等特征。当对一段内容进行检测时,模型会将文本拆解成一个个的标记(token),然后通过多层的神经网络结构对每个标记进行编码,捕捉相邻标记之间以及远距离标记之间的关系和依赖,从而构建出文本的内部结构和语义表示。

在这个过程中,模型会重点分析文本的一些关键特征来辨别其是否具有人工智能生成的迹象。在词汇和短语层面,会关注文本中词汇的搭配是否过于规整,或者说是否存在一些不符合人类日常表达习惯的词汇组合。例如,人类写作可能会有一些带有个人风格的、较为随意的词汇混用,而人工智能生成的内容在词汇选择和搭配上往往遵循着较为固定的模式,呈现出一种高度的“一致性”。在句法结构方面,检测模型会研究句子的长度分布、复杂度分布等情况。人类创作的文本中,句子长度和结构会因表达需要和思维的跳跃性而呈现多样化,长难句和简洁短句会交替出现,而人工智能生成的文本可能会倾向于生成长度适中且结构相对规则的句子,这样可以确保内容的连贯性和可理解性,但也使得其在句法特征上有所暴露。

语义连贯性也是检测的一个关键因素。人类作者在创作过程中,会对语义进行连贯性的把控,通过各种逻辑连接词、语义重复等方式来维持上下文的衔接。然而人工智能,生成文本在语义连贯上有时会表现出一种较为“机械式”的过渡,可能缺乏像人类那种富有情感色彩的、基于生活经验的自然连贯逻辑。比如在讲述一个情感故事时,人类作者会根据内心感受和情节需要自然地调整情绪表达、递进情感发展,而人工智能生成的内容可能只是按照预设的某种模式去呈现,导致语义连贯的细节上存在差异。

除了基于深度学习模型的这些特征分析外,还会结合一些统计分析方法来辅助判断 AIGC 率。例如计算文本中某些固定表达模式(如常见的开头、结尾句式)出现的频率,统计文本内容中不同主题切换的次数、频率等。如果这些统计指标与已知的人工智能生成文本的模式特征高度吻合,那么就会倾向于认为该文本有较高比例的 AIGC 成分。

同时,随着技术的发展,也有研究者在探索利用对抗训练等方法来优化检测模型。通过对检测模型和生成模型同时进行对抗训练,让检测模型能够更好地捕捉生成模型所产生的潜在特征,从而不断提升其在实际场景下对 AIGC 率判断的准确性。这种对抗训练的方式使得检测模型不断适应人工智能生成技术的更新换代,始终保持对新出现的 AIGC 特征的敏感度,以便更精准地进行检测。总之,AIGC 率的检测通过深度学习模型与多种分析方法的协同作用,从文本的各个维度特征出发,逐步构建出对文本中 AIGC 占比的判断体系。

方法三:换用AI提示文本

友情提示,这篇博文的内容全是博主利用AIGC生成的,至于效果如何呢,详见此图:

至于怎么用呢?开玩笑,博主怎么可能教你,教会了我还怎么水博文呢?(手动狗头)

Read more

论文阅读|ArxiV 2025|大模型微调综述|A Survey on Federated Fine-Tuning of Large Language Models

论文阅读|ArxiV 2025|大模型微调综述|A Survey on Federated Fine-Tuning of Large Language Models

论文地址:https://arxiv.org/pdf/2503.12016 相关最新研究动态:https://github.com/Chen-Yang-Liu/Awesome-RS-SpatioTemporal-VLMs 文章目录 * 0.综述结构 * 1.引言 * 2. 背景 * 2.1 大型语言模型 * 2.2 大型语言模型的训练 * 2.3 联邦微调 * 3. 挑战 * 3.1 通信开销 * 3.2 数据异质性 * 3.3 内存墙 * 3.4 计算开销 * 4. 大语言模型与时序图像的融合 * 4.1 基于低秩适应(LoRA)的微调

Web 请求到底为什么是I/O 密集型的庖丁解牛

“Web 请求是 I/O 密集型” 是后端开发的核心认知,但许多 PHP 程序员仅停留在口号层面。 一、Web 请求的完整生命周期(以 Laravel 为例) RedisMySQLPHP-FPMNginxClientRedisMySQLPHP-FPMNginxClientHTTP RequestFastCGI RequestSELECT * FROM users WHERE id=100Result SetGET user:100:profileProfile DataHTML/JSON ResponseHTTP Response ✅ 关键观察: PHP 代码执行时间 ≈ 10–50ms, I/O 等待时间 ≈ 50–200ms(数据库 + 缓存 + 网络) 二、I/O 密集型的本质:CPU 在等待

V8与WebKit揭秘:现代浏览器引擎漏洞在Web渗透中的高级利用实战

前言 1. 技术背景:在现代Web攻防体系中,浏览器本身已成为一个关键的攻击入口。传统的Web渗透测试(如XSS、CSRF、SQL注入)主要聚焦于服务器端应用的漏洞,而针对客户端的攻击则往往依赖于浏览器引擎的复杂性。V8(用于Chrome和Edge)和WebKit(用于Safari)作为最主流的浏览器引擎,其内部的JIT编译器、垃圾回收机制等模块异常复杂,不可避免地会产生类型混淆 (Type Confusion)、越界读写 (OOB) 等内存安全漏洞。利用这些漏洞,攻击者可以突破浏览器的沙箱 (Sandbox) 限制,实现从一个网页标签页的JavaScript执行环境,跃迁到对用户操作系统的完全控制,即实现远程代码执行 (RCE)。这种攻击模式是对传统Web攻击的降维打击,它将原本局限于Web应用层面的风险,直接升级为对终端主机的系统级威胁。 2. 学习价值:掌握浏览器引擎漏洞的利用技术,意味着你将能够: * 理解攻击的本质:从内存层面理解JavaScript代码如何被执行,以及看似无害的操作为何能触发致命漏洞。 * 提升漏洞挖掘能力:学会使用**Fuzzing(

Web Server for Chrome终极指南:5分钟搭建本地Web开发环境

Web Server for Chrome终极指南:5分钟搭建本地Web开发环境 【免费下载链接】web-server-chromeAn HTTP Web Server for Chrome (chrome.sockets API) 项目地址: https://gitcode.com/gh_mirrors/we/web-server-chrome 还在为复杂的本地服务器配置而头疼吗?想要一个简单快捷的方式来预览网页项目或共享文件吗?Web Server for Chrome正是你需要的解决方案。这款基于Chrome浏览器的轻量级HTTP服务器,让本地Web开发变得前所未有的简单。 为什么选择Web Server for Chrome? 传统的本地服务器搭建往往需要安装Node.js、Python等运行环境,配置过程繁琐复杂。Web Server for Chrome彻底改变了这一现状,它直接在Chrome浏览器中运行,无需任何外部依赖,真正实现了开箱即用。 核心优势: * 🚀 零配置启动,几秒钟内即可运行 * 💻 跨平台兼容,