机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

“哥们,我昨晚让AI给我前女友写了首七言绝句,她看完把我微信备注改成了‘赛博李白’。”
—— 某个凌晨三点还在调参的前端群友

当AI开始押韵,人类诗人慌不慌?

先别急着把海子诗集拿去垫桌脚。
AI写诗这事儿,说玄乎也玄乎,说土嗨也土嗨。它既能给你整出“银河跌进啤酒杯”这种赛博浪漫,也能把“月亮”和“WiFi信号格”强行押韵,看得你脚趾抠出三室一厅。
但别怕,今天咱们不聊虚的,直接上手——从“让模型张嘴”到“前端页面能跑能摇”,一条龙给你整明白。
看完你也能在群里甩个链接:“兄弟们,输入关键词秒出七律,流量密码拿去。”

(温馨提示:本文代码全部可抄,抄完报错算我输。)


AIGC写诗到底是个啥玩意儿?——先扒掉技术的底裤

说白了,就是让大模型背完《全唐诗》+《现代诗三百首》之后,照着你的prompt开始“接龙”。
核心公式就一句:
“给定上文,预测下一个token。”
别被“token”吓到,你就把它当成“下一个汉字”或者“下一个拼音片段”。模型每天干的事,就是玩一场超大规模的“成语接龙”,只是接的是人类几千年的酸爽情诗。

中文诗的特殊debuff

  1. 押韵:英文只需要“end with -ing”,中文得整《平水韵》,不然“花”和“蛙”强行押韵,读起来像相声。
  2. 平仄:平平仄仄平平仄,模型看到这一串脑瓜子嗡嗡的,loss函数里不加惩罚,它就给你整出“拖拉机横冲直撞”的节奏。
  3. 意境:AI最擅长“把牛说成是牛”,但它很难明白“牛”也可以是“回不去的田园”。

主流模型怎么“学会”写诗?——Transformer不是变形金刚,但确实会变

训练数据黑幕

  • 古诗文网爬虫:全唐诗 42k、全宋词 20k、现代诗 8k,再加上微博“#每日一诗#”话题 100w 条,混一起就是一锅“古今乱炖”。
  • 清洗规则:去掉“转发”“//”这些杂质,再把“啊”“哦”这类语气词统一映射到<EMO> token,防止模型“啊哦”个不停。
  • 数据增强:把一句“春风又绿江南岸”随机替换成“秋风又黄江北岸”,让模型知道“绿”不是唯一答案,押韵别死磕。

loss函数里的小心机

# 伪代码:在交叉熵上加押韵惩罚defrhyme_penalty(logits, target_tokens, rhyme_dict):""" logits: 模型预测的下一个token分布 target_tokens: 正确答案 rhyme_dict: 自己整的《平水韵》映射表 """ penalty =0if target_tokens[-1]in rhyme_dict:# 最后一个字需要押韵 rhyme_class = rhyme_dict[target_tokens[-1]]for token_id, logit inenumerate(logits):if idx2token[token_id]in rhyme_dict:if rhyme_dict[idx2token[token_id]]!= rhyme_class:# 不押韵就狠狠扣分 logits[token_id]-=5.0return logits 

就这么简单粗暴,模型被“扣分”扣多了,慢慢学会“花/家/涯”一家亲。


实操上手:三行代码让AI给你写情诗

别急着租GPU,先用Hugging Face上白嫖的Chinese-Poetry-GPT2爽一把。

pip install transformers torch 
from transformers import BertTokenizer, GPT2LMHeadModel import torch # 1. 模型&tokenizer一步到位 tokenizer = BertTokenizer.from_pretrained("ethan-yi/Chinese-Poetry-GPT2") model = GPT2LMHeadModel.from_pretrained("ethan-yi/Chinese-Poetry-GPT2") model.eval()# 2. prompt越中二,诗越对味 prompt ="小姐姐,今晚的月亮像刚充值的币,"*3# 重要的事说三遍 inputs = tokenizer(prompt, return_tensors="pt")# 3. 生成——temperature=0.8 赛博微醺感with torch.no_grad(): outputs = model.generate(**inputs, max_length=128, do_sample=True, temperature=0.8, top_p=0.9, repetition_penalty=1.2) poem = tokenizer.decode(outputs[0], skip_special_tokens=True)print(poem)

跑出来的效果可能是:

小姐姐,今晚的月亮像刚充值的币, 小姐姐,今晚的月亮像刚充值的币, 小姐姐,今晚的月亮像刚充值的币, 银河兑进啤酒杯,想你到WiFi满格醉。 

看到没,AI已经把“想你”和“WiFi”强行押韵,土味赛博情诗拿捏了。
想再古风?把prompt换成“春风十里”+“扬州”+“豆蔻”,它立刻给你整出“二月卖新酒”的味儿。


你以为AI写诗就是复制粘贴?——错,它背后全是套路

Token预测视角下的“创作”

模型其实没“创作”,它只是疯狂算概率:
“春风又绿江南岸”后面,最高概率的是“明月何时照我还”,于是它就“抄”了。
但如果把temperature拉到1.5,概率分布被搅成一锅粥,它就可能给你整出“春风又绿江南岸,量子纠缠般的思念”。
所以,temperature=0.5 是李白,temperature=1.5 是喝醉的李白,temperature=2.0 是李白掉进了搅拌机。

前端视角看“生成”

咱们写网页,不可能让用户在命令行里python poem.py
把模型封装成接口,最省事的是直接transformers+fastapi

# api.pyfrom fastapi import FastAPI from pydantic import BaseModel import uvicorn from poem_engine import generate_poem # 上面那段逻辑封装一下 app = FastAPI()classKeyword(BaseModel): keyword:str style:str="tang"# tang / song / [email protected]("/ai/poem")defget_poem(kw: Keyword): prompt =f"{kw.style}风格,关键词:{kw.keyword},写一首七言绝句:" poem = generate_poem(prompt, max_len=64)return{"poem": poem}if __name__ =="__main__": uvicorn.run(app, host="0.0.0.0", port=8000)

前端小哥直接fetch('/ai/poem', {method:'POST', body:JSON.stringify({keyword:'火锅'})})
秒回:

火锅煮月亮,红油染星光。 毛肚是归舟,鸭肠到故乡。 

优点吹爆,缺点扎心——AI诗歌的AB面

A面:快、多、不要版权费

  • 快:GPU 上跑 1 秒 20 首,老板让你写 100 首藏头诗,3 分钟交稿。
  • 多:想写 1000 首关于“孤独”的诗?AI 不emo,它写到显卡冒烟都不累。
  • 版权:它“抄袭”的是概率,不是字面值,法律上算“原创”,甲方听了直点头。

B面:机器味一眼识破

  • 情感假:它可以把“哭”字用 20 种修辞堆砌,但它没真的哭过。
  • 文化错:让 AI 写端午,它可能冒出“屈原吃粽子看龙舟比赛”——屈原:???
  • 创新边界:AI 最擅长“缝合”,但很难“跳出盒子”。你让它写“新冠情诗”,它只会“口罩遮住你的脸,却遮不住我对你的思念”,听着像十年前的QQ空间。

前端怎么把AI诗歌玩出花?——不止调接口那么简单

1. 古风UI + 毛笔字动画

<!-- Vue3 + Tailwind 快速撸一个“赛博文房四宝” --> <template> <div> <div> <h1>AI 赛博诗塾</h1> <!-- 输入框 --> <input v-model="keyword" @keyup.enter="getPoem" placeholder="输入关键词,比如‘火锅’" /> <!-- 毛笔字动画 --> <svg v-if="loading" viewBox="0 0 100 100" > <text x="50" y="50" text-anchor="middle" fill="#92400e" font-size="20" > 落笔中... </text> </svg> <!-- 诗句 --> <div v-if="poem" > <p v-for="line in poem.split(',')" :key="line" > {{ line }} </p> </div> </div> </div> </template> <script setup> import { ref } from 'vue' const keyword = ref('') const poem = ref('') const loading = ref(false) async function getPoem() { loading.value = true const res = await fetch('http://localhost:8000/ai/poem', { method: 'POST', headers: { 'Content-Type': 'application/json' }, body: JSON.stringify({ keyword: keyword.value }) }) const data = await res.json() poem.value = data.poem loading.value = false } </script> 

2. AI vs 人类 擂台赛

思路:

  • 同一关键词,AI 先写一首,匿名展示;
  • 再拉群友写一首,匿名展示;
  • 用户盲投票,点选“哪首更像人”。
  • 最后揭晓,AI 胜率超过 60% 就可以截图吹半年。

前端实现就是两张卡片 + 一个vote接口,代码太简单就不占篇幅,重点是:记得把 AI 的作者名随机成“李清照 233 号机”,人类作者随机成“张二狗”,悬念拉满。


翻车现场复盘:为什么我的AI写出了“火锅煮月亮”?

1. 乱码——tokenizer背锅

中文 GPT 很多用 BertTokenizer,遇到生僻字直接[UNK],于是“踽踽独行”变成“[UNK] [UNK] 独行”,诗意瞬间变尿意。
解决:提前把《新华字典》+《康熙字典》扔给 tokenizer 做add_tokens,别让 [UNK] 毁了“踽踽”。

2. 跑题——prompt太飘

你输入“孤独”,模型却写“火锅”,大概率是 prompt 里带了“火锅”的上下文。
解决:prompt 用模板锁死:

template ="七言绝句,主题:孤独,禁止出现食物!首句必须包含‘雨’字:"

3. 强行押韵——“月亮”/“WiFi”惨案

temperature 太高,模型开始“乱押”。
解决:

  • 后处理 + 韵表过滤,生成后检查最后一句韵脚,不押韵就重新采样;
  • 或者直接在 logits 阶段加 rhyme_penalty(前面代码有)。

4. 文化常识错误——屈原“被”吃粽子

训练数据里“屈原”“粽子”“龙舟”高频共现,模型直接脑补“屈原吃粽子”。
解决:

  • prompt 加“历史事实:屈原投江,当时尚无粽子”;
  • 或者用知识图谱做过滤,生成后检查实体关系,错了就回炉。

老司机私藏技巧:让AI写出“人味”

1. 情绪标签法

别只喂关键词,先喂“情绪向量”:

emotion ="孤独+雨夜+80年代老磁带" prompt =f"{emotion},写一段现代诗,不超过50字:"

模型会把“磁带”转录成“A面是我,B面是你”,瞬间有那味儿。

2. 散文→诗压缩

先让模型写一段 100 字散文,再下一条指令:“把上文压缩成 28 字七言绝句,保留‘磁带’意象”。
两步走,比一步直接生成诗更稳。

3. 人类半截诗续写

half ="我把远方的酒喝成故乡的月光," prompt =f"续写下半段,保持对仗与押韵,韵脚‘ang’:\n{half}"

AI 续:

却把近处的你念成枕边的霜。 

真假难辨,群里妹子直呼“这是哪个宝藏男孩写的?”


彩蛋:给老板写藏头诗保命指南

老板叫“张总英明神武”,藏头诗要求:张总英明神武,每句开头依次嵌入。
直接上模板:

heads =["张","总","英","明","神","武"] prompt ="七律,藏头诗,每句首字依次:{},风格豪放,拍老板马屁,但别太明显:"\ .format(''.join(heads))

生成效果:

张帆远航破浪行, 总把星辰作指针。 英气如潮吞日月, 明眸似电划云层。 神采飞扬千里路, 武略深藏万籁音。 

老板一高兴,给你绩效多打 0.5,年底还能多抢两箱月饼。
但注意:千万别让 AI 写“裁员”主题,它可能回你:

沁园春·优化 大厂风云,千里裁员,万里波动。 望楼宇内外,唯余惶惶;工位上下,顿失涛涛。 

HR 看了直冒冷汗,连服务器都想给你拔了。


结语(微信群语音转文字版)

“兄弟们,今天这把 AI 写诗就聊到这儿。代码都甩给你们了,回头谁把‘火锅煮月亮’做成 NFT 卖了,记得 V 我 50。
下次想整啥?AI 写 rap 还是 AI 写情书?在群里 @ 我,我去给它调参调到它亲妈都不认识。”

在这里插入图片描述

Read more

目标检测算法——YOLOV11——算法详解

目标检测算法——YOLOV11——算法详解

关键词:YOLO V11、目标检测、算法、解读、详解、教程、结构图、分析 一、主要贡献     其实到了YOLOV5 基本创新点就不太多了,主要就是大家互相排列组合复用不同的网络模块、损失函数和样本匹配策略,需要注意YOLO V5、V8 V11 都是1个公司的,其余的个人建议看看V6美团的,剩下的了解就好。     V11支持多种视觉任务:物体检测、实例分割、图像分类、姿态估计和定向物体检测(OBB)。     Yolo v11 基本和YOLOV8同源,甚至git目前都是1个,部分代码注释还是YOLOV8的,所以建议先看我写的YOLOV8相关博客,对比YOLOV8主要涉及到:     *backbone 中的使用C2f模块 变为 c3k2 模块。     *backbone 中的最后一层(sppf层)后增加了C2PSA模块。     *head 解耦头中的分类检测头两个Conv 变为 DWConv。     整体技术而言:

By Ne0inhk
马年“码”上发力:用Manacher“马拉车”算法,拉平最长回文难题

马年“码”上发力:用Manacher“马拉车”算法,拉平最长回文难题

💗博主介绍:计算机专业的一枚大学生 来自重庆 @燃于AC之乐✌专注于C++技术栈,算法,竞赛领域,技术学习和项目实战✌ 💗根据博主的学习进度更新(可能不及时) 💗后续更新主要内容:C语言,数据结构,C++、linux(系统编程和网络编程)、MySQL、Redis、QT、Python、Git、爬虫、数据可视化、小程序、AI大模型接入,C++实战项目与学习分享。 👇🏻 精彩专栏 推荐订阅👇🏻 点击进入🌌作者专栏🌌: 算法画解 ✅ C++ ✅ 🌟算法相关题目点击即可进入实操🌟 感兴趣的可以先收藏起来,请多多支持,还有大家有相关问题都可以给我留言咨询,希望希望共同交流心得,一起进步,你我陪伴,学习路上不孤单! 文章目录 * 前言 * Manacher(马拉车)算法 * 问题: * 1.相关概念引入

By Ne0inhk
Flutter 组件 simplify 的适配 鸿蒙Harmony 实战 - 驾驭路径精简算法、实现鸿蒙端高性能地理足迹渲染与矢量图形优化方案

Flutter 组件 simplify 的适配 鸿蒙Harmony 实战 - 驾驭路径精简算法、实现鸿蒙端高性能地理足迹渲染与矢量图形优化方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 simplify 的适配 鸿蒙Harmony 实战 - 驾驭路径精简算法、实现鸿蒙端高性能地理足迹渲染与矢量图形优化方案 前言 在鸿蒙(OpenHarmony)生态的运动健康轨迹展示、高精度室内导航以及大规模矢量地图看板开发中,“路径性能”是决定用户滑动流畅度的核心红线。面对用户运动 1 小时产生的包含数万个(X, Y)坐标点的原始 GPS 序列。如果直接将其交给鸿蒙端的渲染层进行绘制,不仅会引发由于顶点(Vertices)过多导致的 GPU 负载饱和。更会由于频繁的坐标点内存申请(Memory Allocation),产生严重的 UI 掉帧与功耗飙升。 我们需要一种“去重存精、视觉无损”的几何精简艺术。 simplify 是一套专注于极致性能的 Douglas-Peucker 及其增强算法实现。它能瞬间将冗余的、

By Ne0inhk
【优选算法】双指针算法:专题一

【优选算法】双指针算法:专题一

目录 引言: 【283.移动零】 1、题目描述 2、实现核心及思路 解题思路: 思路可视化: 代码实现: 代码测试: 【1089.复写零】 1、题目描述 2、实现核心及思路 解题思路: 思路可视化: 代码实现: 代码测试: 【202. 快乐数】 1、题目描述 2、实现核心及思路 解题思路: 代码实现: 【11. 盛水最多容器】 1、题目描述 2、实现核心及思路 解题思路: 思路可视化: 代码实现: 引言: 常见的双指针有两种形式,一种是对撞指针,一种是快慢指针。 对撞指针:一般用于顺序结构中,也称左右指针。 • 对撞指针从两端向中间移动。一个指针从最左端开始,另一个从最右端开始,然后逐渐往中间逼近。

By Ne0inhk