|

: V o/ G4 e. p新智元推荐 5 X* w" U+ }2 C9 ]/ k: l! b1 Z
【新智元导读】本文介绍一篇实时性好准确率高的论文:CornerNet-Lite。该论文由普林斯顿大学几位学者提出。目前CornerNet-Lite被认为是目标检测(Object Detection)中 FPS和mAP trade-off的最佳算法。
$ K% c w& r8 p/ z) z; H; q# ] X: ~1 y6 L% a
之所以说:“吊打YOLOv3”,因为CornerNet-Lite在FPS和mAP上都超过了YOLOv3,具体详见下文介绍。
3 D: Q8 R8 Z$ \8 V* G
$ i' B8 d; t3 N- \# ?《CornerNet-Lite: Efficient Keypoint Based Object Detection》
8 Q4 N5 D2 F) c& K6 x 5 u- B4 G, n( W7 A
摘要 基于关键点的方法是目标检测中相对较新的范例,消除了对anchor boxes的需求并提供了简化的检测框架。基于Keypoint的CornerNet在单级(single-stage)检测器中实现了最先进的精度。然而,这种准确性来自高处理代价。在这项工作中,团队解决了基于关键点的高效目标检测问题,并引入了CornerNet-Lite。
$ J" p! @4 A0 @: R4 \0 A# D/ U+ M% aCornerNet-Lite是CornerNet的两种有效变体的组合:CornerNet-Saccade,它使用注意机制消除了对图像的所有像素进行彻底处理的需要,以及引入新的紧凑骨干架构的CornerNet-Squeeze。
* Y! X4 u" ]" |9 E. Y" ~1 w" [3 T这两种变体共同解决了有效目标检测中的两个关键用例:在不牺牲精度的情况下提高效率,以及提高实时效率的准确性。CornerNet-Saccade适用于离线处理,将CornerNet的效率提高6.0倍,将COCO的效率提高1.0%。
: K; ?( v2 K* {2 P; ]0 Q! V @CornerNet-Squeeze适用于实时检测,提高了流行的实时检测器YOLOv3的效率和准确性(CornerNet-Squeeze为34ms|34.4mAP;COCO上YOLOv3为39ms|33mAP)。
* p0 q$ h3 P/ g/ c, o+ J, F这些贡献首次共同揭示了基于关键点的检测对于需要处理效率的应用的潜力。
, W( @& d+ J: T9 @* z" n9 N ) c" f+ J( \# `# D
背景 CornetNet 在 ECCV 2018 (oral)上横空出世,引领一波基于关键点的目标检测狂潮(最近anchor-free盛行),但这类算法(很多one-stage)也有缺点。虽然mAP有很大提升,但速度上都远不能达到实时(有些论文就避而不谈FPS了)。这其实可以看成学术阶段的成果,但距离落地应用还有一点距离。
7 V' e* r8 ]+ \而 本文CornetNet-Lite 是对CornetNet进行优化,提出了两种算法:5 r- s8 g: y0 K$ k5 H# P
& z2 | G# ?4 K. ~
- CornerNet-Saccade( y8 {* x1 e3 V, }+ C( B. A; w( m
- CornerNet-Squeeze( p0 x. N1 N0 C
CVer作者Amusi认为:& t/ n+ U s, n% f
+ U, W' U. Z4 X% W* o2 l2 z- CornerNet-Saccade是在追求高准确率(mAP)的同时,尽可能提高速度(FPS)。即准确率优先,对标CornerNet等算法。创新点:引入Saccade思想
8 k( b* b4 o( l& j - CornerNet-Squeeze是追求高实时性(FPS)的同时,尽可能提高准确率(mAP),即速度优先,其对标于YOLOv3等算法。创新点:引入SqueezeNet优化思想3 [# ~0 I5 ?0 t/ p
正文 CornerNet-Saccade; x' i& S* S/ }3 O
人类视觉中的 Saccades(扫视运动)是指用于固定不同图像区域的一系列快速眼动。在目标检测算法中,我们广义地使用该术语来表示在推理期间选择性地裁剪(crop)和处理图像区域(顺序地或并行地,像素或特征)。. j) N; K$ C4 e, K1 A+ K. A: m2 \
CornerNet-Saccade中的saccades是single type and multi-object。CornerNet-Saccade检测图像中可能的目标位置周围的小区域内的目标。它使用缩小后的完整图像来预测注意力图和粗边界框;两者都提出可能的对象位置,然后,CornerNet-Saccade通过检查以高分辨率为中心的区域来检测目标。它还可以通过控制每个图像处理的最大目标位置数来提高效率。具体流程如下图所示。
5 ?: z2 |( g) l Z8 D
1 s9 N" S' i. v6 qCornerNet-Saccade设计了一种新的backbone:Hourglass-54(含3个hourglass模块,深度为54)。原CornerNet中使用的是Hourglass-104(含2个hourglass模块,深度为54)。
! z4 p6 c0 o" ?. l注:crop在CornerNet-Saccade中作用非常大
$ }5 e* X- W6 d+ C
* O! I# D/ Q, c; i: U1 lCornerNet-Squeeze
2 F8 H# F' T; Y8 J$ S8 T% H与专注于subset of the pixels以减少处理量的CornerNet-Saccade相比,而CornerNet-Squeeze探索了一种减少每像素处理量的替代方法。在CornerNet中,大部分计算资源都花在了Hourglass-104上。5 L4 x& Q/ ^ S$ P, v5 U$ r
Hourglass-104由残差块构成,其由两个3×3卷积层和跳连接(skip connection)组成。尽管Hourglass-104实现了很强的性能,但在参数数量和推理时间方面却很耗时。为了降低Hourglass-104的复杂性,本文将来自SqueezeNet和MobileNets 的想法融入到 lightweight hourglass 架构中。8 @. S$ r+ c3 @+ p. [
主要操作是:& t" J5 a# G" z) _5 p) L
1 k+ y8 U9 ~ S1 o- 受SqueezeNet启发,CornerNet-Squeeze将 residual block 替换为SqueezeNet中的 Fire module 5 M, a: A, Q& O w! c
- 受MobileNet启发,CornerNet-Squeeze将第二层的3x3标准卷积替换为 3x3 深度可分离卷积(depth-wise separable convolution)4 i" ]6 p9 D7 u8 j+ M+ D( i; p3 r
具体如下表所示:3 p+ @# `9 o( U2 y0 v2 [5 x0 U' I
. H5 h9 }1 B- y
实验结果 开源代码是基于PyToch1.0.0,在COCO数据集上进行测试。测试硬件环境为:1080ti GPU + Intel Core i7-7700k CPU。* O4 {4 x u2 H* D- f( d6 ?& X# d
One-stage算法性能比较
/ H( D9 l: }! _# ~0 p9 F$ f3 ?2 y$ H

2 l D0 h: z8 I0 p( zCornerNet-Saccade算法性能比较4 p% |, X' K# R7 z; ]
可见 Hourglass-54要强于Hourglass-104,另外gt attention对涨点帮助很大# h, v. T/ H# s) i
4 _0 j5 R* f% c" k/ o
CornerNet-Squeeze算法性能比较7 b: b! D7 G- \; V: c8 ?6 f
见证奇迹的时候来了!CornerNet-Squeeze吊打YOLOv3,因为即使是C语言版本的YOLOv3,都已被全方位(mAP+FPS)超过。
, i. u4 x/ |3 N. G) L注:日常期待一下YOLOv4,毕竟YOLOv3已经是去年3月的"老人"了。
9 }; _* B7 g5 x$ E8 K0 s ! k' v* f& F7 G- W+ U3 `' ~
论文地址:
+ L* T9 Y0 n6 s' }1 {! A5 a. v& qGitHub地址: - N4 R( u8 ]; V* J7 O/ e# z
" S6 c$ e7 Z- B2 {+ e- v, ]

( [" }# y0 b" j. V2 Z$ o% K【加入社群】1 y) p2 d: O5 T( X; Y
# i( z+ B- }: X( [/ |3 Q4 S
2 N0 B( R2 `1 J! j+ B7 ^来源:http://www.yidianzixun.com/article/0LnrmbYt" x0 h* y% O5 f2 Y% b5 Z
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|