谷歌最新研究 EfficientNet:通过 AutoML 和模型扩展提高准确性和效率
卷积神经网络(CNN)通常以固定的资源成本开发,然后按比例放大,以便在获得更多资源时实现更好的准确性。例如,ResNet 可以通过增加层数从 ResNet-18 扩展到 ResNet-200,最近,GPipe 通过将基线 CNN 扩展四倍来实现 84.3%ImageNet top-1 准确度。模型缩放的传统实践是任意增加 CNN 深度或宽度,或者使用更大的输入图像分辨率进行训练和评估。虽然这些方法确实提高了准确性,但它们通常需要繁琐的手动调整,并且仍然经常产生次优的性能。相反,如果能找到更有原则的方法来扩大 CNN 以获得更好的准确性和效率呢?
在谷歌最新的 ICML 2019 论文「EfficientNet:重新思考卷积神经网络的模型缩放」中,研究员提出了一种新颖的模型缩放方法,该方法使用简单但高效的复合系数以更结构化的方式扩展 CNN。与任意缩放网络尺寸的传统方法(例如宽度,深度和分辨率)不同,谷歌的方法使用固定的缩放系数集合均匀地缩放每个维度。借助这种新颖的缩放方法和 AutoML 的最新进展,谷歌开发了一系列称为 EfficientNets 的模型,它超越了最先进的精度,效率提高了 10 倍(更小,更快)。