怎么样才能降低AIGC(亲测好用)

怎么样才能降低AIGC(亲测好用)

以下博文将教会你如何降低自己论文的AIGC率,简单易学,但是不包会。

方法一:手动让AI变得像人

首先先生成一个AIGC检测报告,反正又不要钱,只要进行漫长的等待:

然后,重点来了,你照着改就行了:

1.内容格式不对被判定AIGC(详细可见博主上篇文章

看过博主的毕业论文撰写指南的同学都知道,一定要用大段大段的文字来让他生成,总之句子一定要有主语,以及不要把一个短句后前后加句号,因为格子达是以一个句号来查AGC的,这样小句子非常容易风险。

2.AI特别喜欢使用“首先,其次,另外,此外,因此”,而且用逗号隔开,这时候就要把这句话连接起来。

比如:因此,A1GC率的问题确实感到烦恼和困扰。

改成:所以AGC率的问题确实感到烦恼和困扰。

3.一般没有主语的句子,会被判定为AI写作!降A1的时候一定要把句子的主语加上。

比如:因此,AGC率的问题确实感到烦恼和困扰。

改成:所以AGC率的问题确实让我感到烦恼和困扰。

4.内容空洞,没有例子,干货

AI写的论文看起来好像有点道理,但实际上没有实质性内容,纯凑字数,也没有具体的例子或干货。所以,下次降AI的时候,得加入一些论文内容和实例,这样才能让文章更有干货。

5.用自己的话把AI部分复述一遍,加点人话

把自己想象成一个老师,教别人你的文章。可能别人未必听得懂,所以要加些通俗易懂的话把风险高的句子融合在里面,这样降AIGC非常快!

比如:因此,AGC率的问题确实感到烦恼和困扰。

改成:AGC率的问题让我感到很烦恼!

6.删除大法

字数够了的话,直接把A1GC那部分砍掉,这是最省事的办法!

7.词语替换

把原来的表述换个说法,用长句替换短句,如果一个句子里有重复的词,那就换成同义词,让文章看起来丰富一些

8.删字扩写

如果专业词汇解释怎么都搞不定,那就狠下心来删掉一些不重要的解释,或者用大白话把专有名词解释一遍。然后在能展开的地方,尽量多举些例子,让论文看起来更充实。

9.翻译大法

使用翻译大法的时候一定要尝试多种翻译软件,因为有的软件翻译出来就是Al,有的软件翻译出来没有AI。翻译可以多次使用,比如从中->英->中,将重复率从89%降低到75.然后再使用中->法->日->法->中,多次使用查重率从75%降低到62%。翻译软件首推deep I,效果最好。但deepl国内使用不稳定也可以使用有道翻译、百度翻译或者360翻译。

方法二:一段只有一个句号的文本

1.神奇冷知识

冷知识来了:

毕业论文的查重方法是不会去看有参考文献引用的部分的

而且最好玩的是,这个引用部分是按照句号进行分隔的,所以如果你整段内容中只有一个句号,且这段内容有参考文献时,那么恭喜你!你这篇内容的重复率和AIGC率都是0。

情感的融入同样是让文本显得更真实的重要步骤。人类的情感是复杂而多变的,写作中常常会自然地流露出喜怒哀乐。在修改 AIGC 文本时,要善于捕捉这些情感的波动,并在适当的地方加以强化。例如,在描述一个令人感动的故事时,加入一些关于内心感受的描述,如“那一刻,我的心中涌起一股暖流,仿佛被阳光照耀”,让读者能够与文本产生情感共鸣。此外,真人写作往往具有一定的逻辑性和连贯性,这在 AIGC 文本中可能因为生成算法的限制而有所欠缺。因此,对文本结构进行调整也是必要的。可以尝试将内容重新组织,使其更加符合人类的思维习惯。例如,通过设置悬念、层层递进的方式来引导读者,或者在段落之间增加过渡句,使整个文本的衔接更加流畅。

from transformers import pipeline # 初始化情感分析和文本生成工具 emotion_analyzer = pipeline("sentiment-analysis") # 示例文本(来自用户提供的内容)" 冷知识来了: 毕业论文的查重方法是不会去看有参考文献引用的部分的 而且最好玩的是,这个引用部分是按照句号进行分隔的,所以如果你整段内容中只有一个句号,且这段内容有参考文献时,那么恭喜你!你这篇内容的重复率和AIGC率都是0。 情感的融入同样是让文本显得更真实的重要步骤。人类的情感是复杂而多变的,写作中常常会自然地流露出喜怒哀乐。在修改 AIGC 文本时,要善于捕捉这些情感的波动,并在适当的地方加以强化。例如,在描述一个令人感动的故事时,加入一些关于内心感受的描述,如“那一刻,我的心中涌起一股暖流,仿佛被阳光照耀”,让读者能够与文本产生情感共鸣。此外,真人写作往往具有一定的逻辑性和连贯性,这在 AIGC 文本中可能因为生成算法的限制而有所欠缺。因此,对文本结构进行调整也是必要的。可以尝试将内容重新组织,使其更加符合人类的思维习惯。例如,通过设置悬念、层层递进的方式来引导读者,或者在段落之间增加过渡句,使整个文本的衔接更加流畅。 """ # 情感分析 emotion = emotion_analyzer(text)[0]['label'] print(f"Detected emotion: {emotion}") # 优化文本示例(根据情感调整文本) if emotion == 'POSITIVE': enhanced_text = "在撰写毕业论文时,了解查重机制可以高效地降低重复率。特别有趣的是,查重系统通常会忽略带有正确引用的段落。如果你将引用内容与一个句号分隔开,那么恭喜你!这段引用内容将不会影响你的论文重复率。同时,记得在写作中融入真实的情感,比如在描述一个令人感动的故事时,可以这样写道:'那一刻,我的心中涌起一股暖流,仿佛被阳光照耀'。这种情感表达能让你的论文更生动,更能与读者产生共鸣。" else: enhanced_text = "毕业论文的查重机制有一些有趣的方面需要了解。例如,正确引用的参考文献部分通常会被查重系统忽略。如果你将引用内容与一个句号分隔开,那么这段引用内容将不会计算在重复率中。在写作过程中,也要注意情感的融入,让文字更具人情味。比如,当你描述一个感人的场景时,可以加入内心感受的描写:'那一刻,我的心中涌起一股暖流,仿佛被阳光照耀'。这样的细节不仅能提升论文的吸引力,还能让读者感受到作者的真实情感。" # 输出优化后的文本 print("\nOptimized Text:") print(enhanced_text)

这个代码示例展示了如何利用情感分析来调整文本,使其显得更真实、更人性化。首先,通过情感分析工具检测文本的情感倾向。然后,根据检测到的情感,生成一个经过优化的文本版本。在这个示例中,优化后的文本不仅考虑了参考文献的查重问题,还融入了情感表达,使文本更具人情味。

2.水文大法

AIGC 率的检测是一个复杂且多维度的领域,它涉及到多种技术原理相互协作与融合来实现对 AIGC(人工智能生成内容)占比的准确评估。从本质上来说,主要依赖于深度学习模型的强大特征提取与模式识别能力。这些深度学习模型,通常是经过在海量文本数据上进行预训练得到的,例如基于 Transformer 架构的模型。它们能够学习到文本中丰富的语法、语义以及语境信息等特征。当对一段内容进行检测时,模型会将文本拆解成一个个的标记(token),然后通过多层的神经网络结构对每个标记进行编码,捕捉相邻标记之间以及远距离标记之间的关系和依赖,从而构建出文本的内部结构和语义表示。

在这个过程中,模型会重点分析文本的一些关键特征来辨别其是否具有人工智能生成的迹象。在词汇和短语层面,会关注文本中词汇的搭配是否过于规整,或者说是否存在一些不符合人类日常表达习惯的词汇组合。例如,人类写作可能会有一些带有个人风格的、较为随意的词汇混用,而人工智能生成的内容在词汇选择和搭配上往往遵循着较为固定的模式,呈现出一种高度的“一致性”。在句法结构方面,检测模型会研究句子的长度分布、复杂度分布等情况。人类创作的文本中,句子长度和结构会因表达需要和思维的跳跃性而呈现多样化,长难句和简洁短句会交替出现,而人工智能生成的文本可能会倾向于生成长度适中且结构相对规则的句子,这样可以确保内容的连贯性和可理解性,但也使得其在句法特征上有所暴露。

语义连贯性也是检测的一个关键因素。人类作者在创作过程中,会对语义进行连贯性的把控,通过各种逻辑连接词、语义重复等方式来维持上下文的衔接。然而人工智能,生成文本在语义连贯上有时会表现出一种较为“机械式”的过渡,可能缺乏像人类那种富有情感色彩的、基于生活经验的自然连贯逻辑。比如在讲述一个情感故事时,人类作者会根据内心感受和情节需要自然地调整情绪表达、递进情感发展,而人工智能生成的内容可能只是按照预设的某种模式去呈现,导致语义连贯的细节上存在差异。

除了基于深度学习模型的这些特征分析外,还会结合一些统计分析方法来辅助判断 AIGC 率。例如计算文本中某些固定表达模式(如常见的开头、结尾句式)出现的频率,统计文本内容中不同主题切换的次数、频率等。如果这些统计指标与已知的人工智能生成文本的模式特征高度吻合,那么就会倾向于认为该文本有较高比例的 AIGC 成分。

同时,随着技术的发展,也有研究者在探索利用对抗训练等方法来优化检测模型。通过对检测模型和生成模型同时进行对抗训练,让检测模型能够更好地捕捉生成模型所产生的潜在特征,从而不断提升其在实际场景下对 AIGC 率判断的准确性。这种对抗训练的方式使得检测模型不断适应人工智能生成技术的更新换代,始终保持对新出现的 AIGC 特征的敏感度,以便更精准地进行检测。总之,AIGC 率的检测通过深度学习模型与多种分析方法的协同作用,从文本的各个维度特征出发,逐步构建出对文本中 AIGC 占比的判断体系。

方法三:换用AI提示文本

友情提示,这篇博文的内容全是博主利用AIGC生成的,至于效果如何呢,详见此图:

至于怎么用呢?开玩笑,博主怎么可能教你,教会了我还怎么水博文呢?(手动狗头)

Read more

LLaMA论文阅读笔记

论文:https://arxiv.org/pdf/2302.13971 1、为什么要做这个研究(理论走向和目前缺陷) ? 之前的效果的模型要么不开源,要么用了私有数据训练,完全开源的效果都不咋地。 2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ? 用完全开源的数据(1.4万亿tokens),并没有大的离谱模型(7B到65B), 做了一系列前面研究做的优化,如RMSNorm的Pre-normalization减少计算量,FFN的激活函数替换为SwiGLU增强表现能力更好,旋转位置编码RoPE提升模型长度外推性。这些优化基本都成了后续大模型设计的标配。 3、发现了什么(总结结果,补充和理论的关系)? 算是首个完全开源且效果和闭源模型相当的LLM模型,候选qwen也是基于这个模型改进得到的。 摘要 发布LLaMA系列模型,参数量从7B到65B量级,训练数据在1.5万亿tokens,且全是开源的数据,13B参数量的比175B的GPT-3性能还要好,65B的模型达到当前最好的大语言模型效果。 1 引言 在算力固定的情况下,小模型+大数据比大模型+小数据效果更好,而且小模型

vscode-copilot-chat优化技巧:减少资源占用的方法

vscode-copilot-chat优化技巧:减少资源占用的方法 【免费下载链接】vscode-copilot-chatCopilot Chat extension for VS Code 项目地址: https://gitcode.com/gh_mirrors/vs/vscode-copilot-chat VSCode Copilot Chat作为AI辅助编程工具,在提升开发效率的同时,可能会占用较多系统资源。本文将从配置优化、会话管理和高级设置三个维度,介绍减少资源消耗的实用方法,帮助用户在保持功能体验的同时提升编辑器性能。 配置优化:基础设置调整 调整模型参数限制 通过修改配置文件中的模型参数,可以直接影响资源占用情况。在项目的package.json中,可配置自定义模型的最大输入输出令牌数,避免不必要的计算资源消耗。 "configuration": { "maxInputTokens": 2000, "maxOutputTokens": 1000 } 上述配置将输入令牌限制在2000,输出令牌限制在1000,适用于大多数日常开发场景。如需处理复杂任务,

技术复盘:llama-cpp-python CUDA 编译实战 (Windows)

技术复盘:llama-cpp-python CUDA 编译实战 (Windows)

https://github.com/abetlen/llama-cpp-python Flash Attention 2.8.3 在 Windows + RTX 3090 上成功编译与运行复盘笔记(2026年1月版) 这份笔记不仅是技术的记录,也是我们在【Project_Singularity “奇点计划”】中攻克首个重大壁垒的战勋。 我们在极其复杂的“未来版本环境”(VS 2026 Preview + CUDA 13.1)中,成功通过降级指定生成器的方法,完成了高性能本地编译。 以下是为了后继回顾方便,复盘整理的**《EPGF v7.0 核心引擎构建:llama-cpp-python CUDA 编译实战备忘录》**。 📝 技术复盘:llama-cpp-python CUDA 编译实战 (Windows) 日期:2026-01-31 项目:

DeepSeek-R1-Distill-Llama-8B本地部署指南:3步实现高性能AI推理

DeepSeek-R1-Distill-Llama-8B本地部署指南:3步实现高性能AI推理 【免费下载链接】DeepSeek-R1-Distill-Llama-8B开源项目DeepSeek-RAI展示前沿推理模型DeepSeek-R1系列,经大规模强化学习训练,实现自主推理与验证,显著提升数学、编程和逻辑任务表现。我们开放了DeepSeek-R1及其精简版,助力研究社区深入探索LLM推理能力。【此简介由AI生成】 项目地址: https://ai.gitcode.com/hf_mirrors/deepseek-ai/DeepSeek-R1-Distill-Llama-8B 还在为复杂的大模型本地部署而头疼吗?🤔 DeepSeek-R1-Distill-Llama-8B作为DeepSeek-R1系列的精简版本,在保持强大推理能力的同时,显著降低了硬件要求。本文将带你通过环境检测→一键部署→性能调优的三步极简流程,在普通消费级GPU上也能体验专业级的AI推理性能。 一、环境准备:从零开始的部署基础 1.1 硬件兼容性快速检测 DeepSeek-R1-Distill-Llam