如何设计更高效的网络架构是进一步提高CNNs性能的关键。然而,随着超参数 (规模、宽度、基数等) 的增加,设计高效的体系结构变得越来越复杂,尤其是在网络深入发展的时候。在本文中,我们重新考虑了网络设计的瓶颈结构的尺寸。我们特别考虑以下三个基本问题。(i) 如何避免产生特征图中包含的丰富甚至冗余信息。(ii) 如何在没有任何计算复杂性的情况下促进网络学习更强大的特征表示。(iii) 如何实现更好的性能并保持推理速度。
在本文中,我们介绍了一种新颖的分层分割块来生成多尺度特征表示。具体来说,深度神经网络中的一个普通特征图将被拆分为s组,每个组具有w个通道。如图2所示,只有第一组过滤器可以直接连接到下一层。首先将第二组特征图发送到3 × 3滤波器的卷积以提取特征,然后将输出特征图在通道维度上分为两个子组。特征映射的一个子组直接连接到下一层,而另一个子组与通道维度中的下一组输入特征映射串联。串联特征图由一组3 × 3卷积滤波器操作。此过程重复几次,直到处理了其余的输入特征图。最后,将所有输入组中的特征映射级联并发送到另一层1 × 1过滤器以重建特征。同时,我们提出了一个名为HS-ResNet的网络,该网络由几个分层分割的块组成。与Res2Net[9] 不同,我们避免产生特征图中包含的丰富甚至冗余信息,并且网络可以学习更丰富的特征表示。

主要贡献: