《Attentional Feature Fusion》论文阅读笔记
Abstract
特征融合,即来自不同层或分支的特征的组合,是现代网络结构的一个无所不在的部分。它通常通过简单的操作实现,如求和或串联,但这可能不是最好的选择。在这项工作中,我们提出了一个统一的通用方案,即注意力特征融合,它适用于大多数常见的情况,包括由短和长的跳过连接以及Inception层内引起的特征融合。为了更好地融合语义和尺度不一致的特征,我们提出了一个多尺度通道注意模块,它解决了在融合不同尺度的特征时出现的问题。我们还证明了特征图的初始整合会成为一个瓶颈,这个问题可以通过增加另一个层次的注意来缓解,我们称之为迭代注意特征融合。在较少的层或参数下,我们的模型在CIFAR-100和ImageNet数据集上的表现都优于最先进的网络,这表明更复杂的注意力机制的特征融合具有很大的潜力,与直接的对应物相比,可以持续产生更好的再结果。我们的代码和训练好的模型可以在网上找到[1]。
InceptionNet:
Introduction
ParseNet:一个端到端的用于语义分割的卷及神经网络,这篇文章最大的贡献在于使用了全局语义信息(Global Context)来做分割,ParseNet可以直接对网络中任意一层进行全局池化得到一个代表全图特征的特征图,并利用这个特征图进行分割。
----------到结尾啦!! Hoohoo----------