冻结 Prompt 微调大语言模型:T5 与 PET 解析
详细解析了冻结 Prompt 微调大语言模型的两个经典工作:T5 与 PET。T5 提出了 Text-to-Text 统一框架,将各类 NLP 任务转化为文本生成任务,通过前缀 Prompt 实现多任务处理。PET 则利用完形填空式 Prompt 将文本分类转化为掩码词预测,结合半监督蒸馏方案提升小样本性能。文章分析了两种方法的架构设计、Prompt 构建逻辑、损失函数及优缺点,并提供了代码实现示例,为理解 Prompt Engineering 奠定基础。


