HetConv:用于深度卷积神经网络的(CNNs)的异构核卷积
在论文《HetConv: Heterogeneous Kernel-Based Convolutions for Deep CNNs》中,研究人员提出一种卷积运算利用异构核的新型深度学习架构。相较于标准卷积运算,研究人员提出的HetConv(基于异构核的卷积)减少了运算量(FLOPs)和参数数量,同时又能保持表征效率。为了证明所提出卷积的有效性,研究人员给出了大量有关VGG [30]和ResNet [8]等标准卷积神经网络(CNN)架构的实验结果。研究人员发现,在这些架构中将标准卷积过滤器替换成所提出的HetConv过滤器时,FLOPs速度提升了3至8倍,同时又能保持准确性(有时能够提高准确性)。研究人员还将所提出的卷积与分组卷积/深度卷积进行比较,结果显示,前者的FLOPs大幅度降低,同时准确性显著提高。