DETA:基于Transformer的NMS(非极大值抑制)新目标检测器
-
转载: CVer计算机视觉(知乎)
一句话总结
本文发现one-to-one匈牙利匹配对于DETR(DEtection TRansformer)是不必要的,并提出用传统的NMS方法训练可变形DETR,可显著提高性能,进一步提出DETA(Detection Transformers with Assignment)新目标检测器,性能表现SOTA!代码刚刚开源!
NMS Strikes Back
单位:UT Austin(作者列表中有CenterNet/CenterTrack一作)
代码:https://github.com/jozhang97/DETA
论文:https://arxiv.org/abs/2212.06137
检测Transformer(DETR)在训练期间通过使用one-to-one 二分匹配将查询直接转换为唯一对象,并启用端到端目标检测。
最近,这些模型以不可否认的优雅超越了COCO上的传统检测器。然而,它们在多个设计上不同于传统检测器,包括模型架构和训练时间表,因此一对一匹配的有效性还没有得到充分理解。
在这项工作中,我们对DETR中的一对一匈牙利匹配和非极大值抑制(NMS)的传统检测器中的一对多标签分配进行了严格的比较。
算法细节
实验结果
令人惊讶的是,我们观察到NMS的一对多分配在相同设置下始终优于标准的一对一匹配,增益高达2.5 mAP。我们的检测器使用传统的基于IoU的标签分配训练可变形DETR,使用ResNet50主干在12个时期(1x schedule)内实现了50.2 COCO mAP,在该设置下优于所有现有的传统或基于Transformer的检测器。
在多个数据集、时间表和架构上,我们一致表明二分匹配对于高性能检测Transformer是不必要的。此外,我们将检测Transformer的成功归因于其富有表现力的Transformer架构。