
上期回顾
在上一节《YOLOv8【第十章:多任务扩展深度篇·第10 节】加权多任务损失(Weighted Loss):自动平衡分类、回归与分割的权重!》内容中,我们深入探讨了 加权多任务损失(Weighted Multi-Task Loss) 的核心理念与工程实现。多任务联合训练时,分类损失、回归损失与分割损失在数量级、梯度方向上往往相互冲突,简单地将它们相加会导致模型"偏科"——某务主导梯度更新,其余任务收敛缓慢甚至发散。
我们系统介绍了三类权重平衡策略:
- 静态手动权重:依靠先验经验为各损失项分配固定系数,实现简单但泛化性差;
- 不确定性加权(Uncertainty Weighting / Homoscedastic Uncertainty):由 Kendall et al. 提出,将每个任务的权重建模为可学习的噪声参数 σ_i


