c269095d5c7f69d2aa7254cb77b696b8.png
论文基于DA Faster R-CNN系列提出类别正则化框架,充分利用多标签分类的弱定位能力以及图片级预测和实例级预测的类一致性,从实验结果来看,类该方法能够很好地提升DA Faster R-CNN系列的性能
来源:晓飞的算法工程笔记 公众号

论文: Exploring Categorical Regularization for Domain Adaptive Object Detection

250cb2ce4dbf4761dd85597f7d094f39.png
  • 论文地址:https://arxiv.org/pdf/2003.09152.pdf
  • 论文代码:https://github.com/Megvii-Nanjing/CR-DA-DET

Introduction


由于标注成本大,在训练好检测算法后,面对差异较大的新场景(类别不变),若想获取大量的带标注图片进行再训练是很不方便的。对于这种情况,无监督的域自适应方法能够灵活地自适应新场景,从包含丰富标注信息的源域转移到无标注的目标域。其中,域自适应方法中比较有代表性的是Donamin Adaptive(DA) Faster R-CNN系列,利用对抗训练来对齐图片和实例的分布,使得模型能够做到域不变性,具体可以看上一篇介绍。 但是这些方法大都把无法转化的背景内容也进行了对齐,而且在实例对齐时,没有从包含较多低质量的proposal集合中识别出难样本。为了解决上面的问题,论文提出类别正则化框架,帮助DA Faster R-CNN专注于对齐跨域中的关键区域和重要目标。
论文的主要贡献如下:

  • 提出新的类别正则化框架,作为域自适应目标检测算法的插件,不需要额外的标注和超参数。
  • 设计了两个正则化模块,分别用于榨取卷积分类器的弱定位能力以及图像级别预测和实例级别预测间的类别一致性,能够帮助分类器专注于对齐目标相关区域以及难对齐实例。
  • 对多种域转移场景进行实验,验证论文提出的方法的有效性。从实验结果来看,类别正则化框架能够提出DA Faster R-CNN系列方法的性能,并在基础数据集上达到SOTA。

Approach


Framework Overview

5270c7ca5abdb630e4758160d07c68ae.png

论文方法的整体架构如图2,在DA Faster R-CNN基础上添加了ICR(image-level categorical regularization)和CCR(categorical consistency regularization),能够更好地对齐域间的关键区域和重要实例。

Image-Level Categorical Regularization

ICR的主要目的是提高主干网络的目标特征提取能力,同时降低背景的激活。结构如图2b所示,ICR使用源域数据进行有监督训练,对主干网络的特征输出进行全局池化,再使用多标签分类器(

卷积)进行分类,损失函数使用标准交叉熵多标签损失:

4783c9e10e2bef0b75f8bf761f2b104e.png

为类别总数,
为GT标签,
为预测标签,
表示图片至少包含一个类别
物体。

d3751f1fbcf2d072a9d58f599610473d.png

ICR模块利用多标签分类器的弱定位能力,能够有监督地引导主干网络只激活类相关特征。如图3所示,类相关的特征会有较高的激活值。在图像级对齐时,能够对齐域间关键区域,同时,由于背景没有参与到图像级多标签分类器中,能够有效减少拟合不可对齐的源背景的可能性。

Categorical Consistency Regularization

CCR负责发现难对齐实例,调整实例级对齐损失的权重,基于两点考虑:

  • 由于不能区分前景和后景,实例对齐模块可能被低质量背景proposal占据。
  • 添加的图像级分类器和实例检测head是互补的,前者负责获取所有图像级上下文信息,后者使用精确的RoI特征,当两者预测不一致时,该实例就是难样本。

基于以上考虑,论文采用图像级预测和实例级预测的类别一致性作为目标分类难易程度的判断,并在目标域中使用该一致性作为正则因子,调节难对齐样本在实例对齐中的权重。假定

为预测第
个实例为类别
的概率,
为实例预测包含类别
的概率,类别一致性的计算为

cffe686e7dfeab281501936ecfe0cfae.png

使用公式5来加权实例级对抗损失

c003c3b5ead4ace6d9f1d38392e60730.png

需要注意,仅对目标域的检测head预测为前景的实例使用公式5加权,源域的所有实例和目标域的背景实例均使用

,前者因为是有监督的,而后者则是因为不重要。

Integration with DA Faster R-CNN Series

将论文提出的方法加入到DA Faster R-CNN中,ICR为直接加入,CCR为对原损失的修改,最终的损失函数为

801a79494b6a5a1bf2759c305f164733.png

论文也对比了另外一种主流的DA -Faster改进SW-Faster,该方法使用弱全局对齐模型来提升DA-Faster的强图像对齐模块,直接加入ICR和CCR,最终的损失函数为

a7b25f1a89e04f47f7c96b963a6a11c4.png

Experiments


Comparison Results

Faster R-CNN(Source)仅使用源域训练,Faster R-CNN(Oracle)仅使用目标域训练。

  • Weather Adaptation

3772cfdcb22c5f535e9fee77affcec39.png

这里对比模型对天气的自适应性。

  • Scene Adaptation

02b7cac361520def7f7f5554d5d16646.png

这里对比模型对不同城市的场景的自适应性。

  • Dissimilar Domain Adaptation

59ef5f9e09caa01a32f53a460b76f040.png

这里对比模型对真实图片和卡通图片的自适应性。

Visualization and Analyses

d2941ecb576e16730f36d5aa4f6cf167.png

对前面对比实验的目标域测试图片进行了可视化。

8f089896a49415e22eba4061b7fe5e20.png

将特征降维并可视化,蓝点为源域样本,红点为目标域样本,可以看到论文的方法能够让域间的同分类实例距离更近。
论文也计算了域间距离,使用Earth Movers Distance (EMD) 测量,SW-Faster, SW-Faster-ICR and SW-FasterICR-CCR的结果分别是8.84、8.59和8.15。

CONCLUSION


论文基于DA Faster R-CNN系列提出类别正则化框架,充分利用多标签分类的弱定位能力以及图片级预测和实例级预测的类一致性,从实验结果来看,类该方法能够很好地提升DA Faster R-CNN系列的性能。

如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

c9618903e04791640c665c7f030373dd.gif

更多推荐