图学学报 ›› 2021, Vol. 42 ›› Issue (1): 32-36.DOI: 10.11996/JG.j.2095-302X.2021010032
摘要: 当一个较大的神经网络在较少的训练数据上训练时,不可避免的会遭遇过拟合问题,进而在测 试数据集上泛化性能较差。因此,提出了多种基于 Dropout 的正则化方法来缓解这个问题。虽然,这些方法不 能直接促使模型关注有较低判别力的特征,但对减少过拟合同样非常重要。为解决该问题,提出了一种基于注 意力引导的 Dropout (AD),利用自监督机制更高效地缓解特征描述算子之间的协同自适应问题。AD 包含 2 个 独特的组件:①特征的重要性度量机制,通过 SE-Block 度量得到每个特征的重要程度;②基于可学习丢弃概 率的 Dropout,通过丢弃“较好”的特征检测算子,强迫“较差”的特征检测算子学习到一个较好的特征表示, 从而缓解特征检测算子之间的协同自适应并促使模型学习拥有较低判别力的特征。实验结果表明该方法可以容 易地被应用到各种卷积神经网络(CNN)结构里,并获得较好的性能。
中图分类号: