一、分组卷积的基础原理
1. 传统卷积的瓶颈与挑战
在深度神经网络中,传统卷积层通过跨通道的全局交互提取特征,但其计算复杂度与参数量随通道数呈二次增长。比如输入有 256 个通道,输出 512 个通道时,每个输出通道都需要和所有输入通道'互动',这会导致参数量和计算量变得非常大,导致:
- 计算效率低下:GPU 显存占用高,训练推理耗时
- 特征冗余:不同通道的特征提取缺乏结构化差异
- 过拟合风险:参数规模增长快于数据规模时容易过拟合
2. 分组卷积的核心机制与数学表达
分组卷积将输入通道和输出通道划分为若干组,每组独立进行卷积操作。具体来说: 分组处理:把输入通道和输出通道分成若干组(比如分成 4 组),每组独立进行卷积操作。比如输入 256 个通道分成 4 组,每组 64 个通道;输出 512 个通道也分成 4 组,每组 128 个通道。 独立计算:每个小组的卷积核只处理自己组内的输入通道,生成对应的输出通道,组与组之间不交叉。 结果合并:最后把各个小组的输出结果合并,得到最终的特征图。



