首先,百度通过飞桨框架下的ImageNet蒸馏模型作为预训练模型对Objects365数据集的检测模型进行训练,训练好的Objects365检测模型可以作为预训练模型,并用来训练相同网络结构的COCO模型,这样可以在检测任务上获得显著提升的效果。对于具体的网络结构而言,百度训练的Res2net200模型、CBResnet200、SE154模型作为检测模型的backbone,其中Res2net200的检测模型在单尺度下mAP可以达到56.2%。
其次,百度采用加强版的FPN模块提升网络效果:使用Acfpn网络增强检测能力,该模型可以解决高分辨率输入上特征图分辨率与感受域之间的矛盾,Acfpn包括两个模块,加入Acfpn后,box mAP增加了0.8%;除了Acfpn,还使用DetectoRS中的RFP网络,RFP网络将反馈连接添加到自底向上的主干层中,它在htc-r50上使box mAP提升4.2%。
除了加强版的FPN模块,百度还用了non-local算子和数据增强策略。non-local算子用于描述距离像素之间的关联,输出特征图的每个元素都会受到所有输入特征图的影响;同时,百度还根据COCO数据集的特性,使用随机擦除的数据增强策略——在图像中随机选取一个矩形区域,并在训练中对其像素进行随机擦除,降低过拟合风险,并提高模型对于遮挡目标的检测鲁棒性。
复制本文网址分享给小伙伴们:https://www.gxnewsw.cn/ggnews/1514.html