目录

【1】多方向目标检测:水平边界框上的滑动顶点

【2】SM-NAS:结构到模块的神经体系结构搜索以进行目标检测

【3】基于PSNet和边框回归的弱监督目标检测(WSOD)

【4】带有可见IoU和Box Sign预测器的遮挡性行人检测

【5】CSPNet:可以增强CNN学习能力的新型Backbone

【6】ReBiF:残差双融合特征金字塔网络,用于精确的Single-shot目标检测

【7】目标检测的性能上界讨论

【8】DIoU Loss:更快更好地学习边界框回归

【9】CoAE:用于One-Shot目标检测的共同注意和共同激励

【10】SAPD:Soft Anchor-Point目标检测

【11】MMOD:基于混合模型的目标检测边界框密度估计

【12】IENet:方向性航空目标检测的One Stage Anchor Free检测器

【13】MnasFPN:用于移动设备上目标检测的延迟感知的金字塔体系结构

【14】IPG-Net:用于目标检测的图像金字塔引导网络

【15】MAL:用于目标检测的多Anchor学习

【16】ATSS:缩小Anchor-free和Anchor-based的性能差距:通过自适应训练样本选择



1】多方向目标检测:水平边界框上的滑动顶点

《Gliding vertex on the horizontal bounding box for multi-oriented object detection》

时间:20191123

作者团队:华科(白翔组)&武大&上交

链接:https://arxiv.org/abs/1911.09358

注:本论文性能优于CAD-Net、R2CNN++,在DOAT上53.49mAP/10.0FPS!表现SOTA!

 

最新目标检测论文_目标检测

最新目标检测论文_目标检测_02

网络结构

 

最新目标检测论文_github_03

 


【2】SM-NAS:结构到模块的神经体系结构搜索以进行目标检测

《SM-NAS: Structural-to-Modular Neural Architecture Search for Object Detection》

时间:20191125(AAAI 2020)

作者团队:华为诺亚&中山大学

链接:https://arxiv.org/abs/1911.09929

注:又一篇用NAS做目标检测的论文,在COCO上可达42.8mAP/20FPS!最高可达45.9mAP,优于同类的NAS-FPN和DetNAS

 

最新目标检测论文_sed_04

 

最新目标检测论文_github_05

SM-NAS Pipeline

 

最新目标检测论文_sed_06

 


【3】基于PSNet和边框回归的弱监督目标检测(WSOD)

《WSOD with PSNet and Box Regression》

时间:20191127

作者团队:清华大学

链接:https://arxiv.org/abs/1911.11512

注:性能优于WSRPN、PCL等弱监督目标检测方法,表现SOTA!

 

最新目标检测论文_github_07

WSOD 网络结构

 


【4】带有可见IoU和Box Sign预测器的遮挡性行人检测

Occluded Pedestrian Detection with Visible IoU and Box Sign Predictor》

时间:20191127

作者团队:清华大学

链接:https://arxiv.org/abs/1911.11449

注:性能优于OR-CNN等网络

 

最新目标检测论文_行人检测_08

网络结构

 

最新目标检测论文_行人检测_09

 


【5】CSPNet:可以增强CNN学习能力的新型Backbone

《CSPNet: A New Backbone that can Enhance Learning Capability of CNN》

时间:20191128

作者团队:中央研究院資訊科學研究所&台湾交通大学

链接:https://arxiv.org/abs/1911.11929

https://github.com/WongKinYiu/CrossStagePartialNetworks

注:很棒的backbone,在检测任务上性能优于YOLOv3-tiny,CSPPeleeNet在Jetson TX2速度高达41FPS!现已开源

 

最新目标检测论文_目标检测_10

最新目标检测论文_github_11最新目标检测论文_体系结构_12

 


【6】ReBiF:残差双融合特征金字塔网络,用于精确的Single-shot目标检测

《Residual Bi-Fusion Feature Pyramid Network for Accurate Single-shot Object Detection》

时间:20191128

作者团队:台湾交通大学&阿联酋大学

链接:https://arxiv.org/abs/1911.12051

注:ReBiF在mAP和FPS上都优于YOLOv3和RFBNet等网络

 

最新目标检测论文_行人检测_13

Residual bi-fusion feature pyramid network 

 

最新目标检测论文_体系结构_14

最新目标检测论文_行人检测_15

 


【7目标检测的性能上界讨论

《Empirical Upper-bound in Object Detection and More》

时间:20191128

作者团队:西弗吉尼亚大学&MarkableAI

链接:https://arxiv.org/abs/1911.12451

注:在作者的计算方式下,PASCAL VOC (test2007) 的上界可以达到 91.6%,COCO (val2017) 可以达到 78.2%, OpenImages V4 (val) 可以达到 58.9%,它们的上界离现在所能达到的最佳的性能仍有很大的差距

解读:目标检测的性能上界讨论

 

最新目标检测论文_体系结构_16

 


【8】DIoU Loss:更快更好地学习边界框回归

《Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression》

时间:20191129(AAAI 2020)

作者团队:天津大学&中国人民公安大学

链接:https://arxiv.org/abs/1911.08287

注:DIoU Loss对YOLOv3、SSD、Faster R-CNN都有明显涨点,现已开源!

解读:DIoU YOLOv3:更加稳定有效的目标框回归损失

最新目标检测论文_体系结构_17

 

最新目标检测论文_行人检测_18

最新目标检测论文_github_19

 


【9】CoAE:用于One-Shot目标检测的共同注意和共同激励

《One-Shot Object Detection with Co-Attention and Co-Excitation》

时间:20191202(NeurIPS 2019)

作者团队:国立清华大学&中央研究院等

链接:https://arxiv.org/abs/1911.12529

代码:https://github.com/timy90022/One-Shot-Object-Detection

 

最新目标检测论文_行人检测_20

网络结构

 


【10】SAPD:Soft Anchor-Point目标检测

《Soft Anchor-Point Object Detection》

时间:20191202

作者团队:卡耐基梅隆大学(CMU)

链接:https://arxiv.org/abs/1911.12448

注:SAPD:目前最强Anchor-free目标检测网络,性能高达47.4mAP/4.5FPS!性能秒杀FreeAnchor、CenterNet、FSAF、FCOS和FoveaBox等

 

最新目标检测论文_github_21

COCO test-dev Speed vs mAP

 

最新目标检测论文_sed_22

Training strategy

 

最新目标检测论文_行人检测_23

 


【11MMOD:基于混合模型的目标检测边界框密度估计

《Mixture-Model-based Bounding Box Density Estimation for Object Detection》

时间:20191202

作者团队:首尔大学

链接:https://arxiv.org/abs/1911.12721

注:MMOD性能可达38.7 mAP/26FPS!但还是不如ASFF,代码即将开源

 

最新目标检测论文_行人检测_24

MMOD 网络结构

最新目标检测论文_行人检测_25

 


【12】IENet:方向性航空目标检测的One Stage Anchor Free检测器

《IENet: Interacting Embranchment One Stage Anchor Free Detector for Orientation Aerial Object Detection》

时间:20191203

作者团队:哈尔滨工程大学

链接:https://arxiv.org/abs/1912.00969

注:IENet用于旋转性边界框(OBB)的One Stage Anchor Free目标检测新网络

 

最新目标检测论文_github_26

IENet Head

 

 


【13】MnasFPN:用于移动设备上目标检测的延迟感知的金字塔体系结构

MnasFPN: Learning Latency-aware Pyramid Architecture for Object Detection on Mobile Devices》

时间:20191204

作者团队:谷歌AI&谷歌大脑(Quoc V. Le大佬)

链接:https://arxiv.org/abs/1912.01106

注:MnasFPN无论mAP还是FPS均优于MobileNetV3+SSDLite和NAS-FPNLite

 

最新目标检测论文_目标检测_27

IMnasFPN 网络结构

最新目标检测论文_github_28

 


【14IPG-Net:用于目标检测的图像金字塔引导网络

《IPG-Net: Image Pyramid Guidance Network for Object Detection》

时间:20191205

作者团队:北京理工大学&三星

链接:https://arxiv.org/abs/1912.00632

注:在COCO上可达45.7mAP,在VOC上可达85.9,性能优于CenterNet、FSAF和SNIPER等网络

 

最新目标检测论文_sed_29

Model Backbone

 

最新目标检测论文_目标检测_30

 


15】MAL:用于目标检测的多Anchor学习

《Multiple Anchor Learning for Visual Object Detection》

时间:20191206

作者团队:CMU&中科院等

链接:https://arxiv.org/abs/1912.02252

注:在single/multi-scale下,one-stage系列的MAL性能分别可达45.9/47.0 mAP!优于FreeAnchor、CenterNet等网络

 

最新目标检测论文_sed_31

MAL 思想

最新目标检测论文_行人检测_32

MAL 网络结构

 

最新目标检测论文_行人检测_33

 


16】ATSS:缩小Anchor-free和Anchor-based的性能差距:通过自适应训练样本选择

《Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection》

时间:20191206

作者团队:中科院&国科大&北邮等

链接:https://arxiv.org/abs/1912.02424

代码:https://github.com/sfzhang15/ATSS

注:ATSS在COCO上,single/multi scale分别可达47.7和50.7mAP!很强势,现已开源!

 

最新目标检测论文_github_34

最新目标检测论文_行人检测_35

 

为了方便下载,我已经将上述论文打包,在 CVer公众号 后台回复:20191209 即可获得打包链接。