
时间序列预测中如何构建层级化的 Transformer 架构
综述由AI生成时间序列预测中构建层级化 Transformer 架构的核心在于利用生成式预训练和自回归解码策略。GPHT 模型通过混合多源数据集进行预训练,解决了单一数据集泛化能力不足的问题。其架构包含序列标记化、分层 Transformer 模块及迭代残差学习机制,能够捕捉多尺度时间模式。实验表明,该方法在多个基准数据集上显著降低了 MSE 和 MAE 误差,尤其在短预测范围和少样本场景下表现优异,证明了分层结构和预训练在提升预测精度方面的有效性。














