技术栈:Python 3.9+ · PyTorch · YOLOv8 · OC-SORT · OpenCV · NumPy · SciPy
三种方案全面对比图如下所示:

上期回顾
在上一节《加权多任务损失》内容中,我们深入探讨了 加权多任务损失(Weighted Multi-Task Loss) 的核心理念与工程实现。多任务联合训练时,分类损失、回归损失与分割损失在数量级、梯度方向上往往相互冲突,简单地将它们相加会导致模型"偏科"——某务主导梯度更新,其余任务收敛缓慢甚至发散。
我们系统介绍了三类权重平衡策略:
- 静态手动权重:依靠先验经验为各损失项分配固定系数,实现简单但泛化性差;
- 不确定性加权(Uncertainty Weighting / Homoscedastic Uncertainty):由 Kendall et al. 提出,将每个任务的权重建模为可学习的噪声参数 σ i \sigma_i


