|
|
选自 arXiv
0 R \6 B1 z6 M* ?5 p1 z+ ?* F作者: Yunpeng Chen 等' Q' z' p& U, j7 B+ H$ u- l2 X
机器之心编译% @, y+ a( P0 M& m W5 B
近期,来自 Facebook AI、新加坡国立大学、奇虎 360 的研究人员联合提出了一种新的卷积操作 ( OctConv ) ,用于替代现有的通用卷积。这款新卷积不仅占用更少的内存和计算,还有助于提高性能。
. a, W' `6 K, X2 v% d: @" ^( G4 g卷积神经网络(CNN)在很多计算机视觉任务中都取得了卓越的成就,然而高准确率的背后,却是很高的冗余度和不可忽视的计算开销。5 g, T2 x6 h' x9 O
图 1. 现有的卷积操作(1x1 卷积)
' D3 p/ h7 j! S4 ]* Q; n2 M对于一个卷积操作而言(图 1),每个位置都是由一个 D 维特征向量 表示,而特征提取,则是通过滑动卷积,对每个位置分别处理得到对应的特征。! E5 T& b2 \( ]8 B2 M, \" A3 s) x
但是,这种为每个位置都分别存储一份特征表达,并分别一一处理的策略明显是不合理的。因为,对于图像而言,相邻位置往往描述的是同一个语义,从而共享一部分特征。
% J u/ i6 t; E 图 2. AlexNet 的第一层卷积核3 \# [- q: ?8 K* r
与此同时,CNN 所学习到的卷积核,也并非全是高频卷积核,如 图 2 所示。这意味着,一部分卷积专注于提取「低频特征」,而另一部分则专注于提取「高频特征」。对于低频卷积所对应的特征图而言,我们也许只需要保留它的低频信号即可,没必要存储在高分辨率下的特征图。2 N/ `2 K, K% t3 @
图 3. 本文的: ( a ) 主要动机 ; ( b,c ) 新的特征表达方式; ( d ) OctConv! Y$ b8 F+ o, `8 g/ C) m# _
如图 3 所示,本文提出将 特征图分为两组:低频特征(蓝色)和 高频特征(橙红),并将空间上变化较为缓慢的「低频特征图」存储在低分辨率的张量中,共享相邻位置间的特征。而本文所提出的 OctConv 则是一种可以直接作用在该特征表达下的卷积操作。它包含每个频率自身状态的更新(绿色箭头),以及频率间的信息交互(红色箭头)。
/ k( o p2 l4 z, r5 `' o 图 4. OctConv 的设计细节% a' a, {+ z3 M5 B
Octave Convolution(OctConv)的命名应该是受到了 SIFT 特征的启发。而 Octave 是八个音阶的意思,音乐里降 8 个音阶代表频率减半。本文通过一个 Octave 将 高频 和 低频 特征隔离到不同的组中,并将低频的分辨率减半。
& \5 x: r2 {- m' Y4 N7 M# r! P) B研究人员指出 OctConv 可以直接用于替代现有卷积,并且即插即用,无需调参,也不影响 CNN 的网络结构以及模型大小。由于 OctConv 专注于降低 CNN 空间维度上的冗余,因此它与现有专注于网络拓补结构设计,以及减少网络特征容易的方法是正交和互补的。
- D/ {+ k! e [9 q0 ~5 E" ~实验表明,用 OctConv 替代普通卷积可以稳定提高现有的 2D CNN 网络(包括 ResNet、ResNeXt、DenseNet、MobileNet、SE-Net)提高其在 ImageNet 上的图像识别的性能,此外也可以稳定提高 3D CNN 网络(C2D、 I3D)并在 Kinetics(行视频动作识别数据集)上取得了更佳的性能。配备了 OctConv 的 Oct-ResNet-152 甚至可以媲美当前最佳的自动搜索的网络 ( NAS, PNAS 等 ) 。
+ a1 d, _1 C; U2 h5 w# W论文:Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave Convolution3 G. x/ s- @- a7 _8 u; O6 B
论文地址:https://export.arxiv.org/pdf/1904.05049
/ s( }* L. a7 I8 j第三方复现结果:https://github.com/terrychenism/OctaveConv4 W* \& \, J6 J
在自然图像中,信息以不同的频率传输,其中较高频率通常以细节进行编码,而较低频率通常以总体结构进行编码。同样地,一个卷积层的输出特征图也可视为不同频率的信息混合。
. [& E1 S. C1 ?* s+ y, s; C# X) j在本文中,研究人员提出基于频率对混合特征图进行分解,并设计了一种新的 Octave 卷积(OctConv)操作,以存储和处理较低空间分辨率下空间变化「较慢」的特征图,从而降低内存和计算成本。" N* V0 R5 K3 y @8 ~
与现有多尺度方法不同,OctConv 是一种单一、通用和即插即用的卷积单元,可以直接代替(普通)卷积,而无需对网络架构进行任何调整。OctConv 与那些用于构建更优拓扑或者减少分组或深度卷积中通道冗余的方法是正交和互补的。$ V, v- {- u* L5 r7 P- @/ f8 o8 ?, G
实验表明,通过用 OctConv 替代普通卷积,研究人员可以持续提高图像和视频识别任务的准确率,同时降低内存和计算成本。一个配备有 OctConv 的 ResNet-152 能够以仅仅 22.2 GFLOP 在 ImageNet 上达到 82.9% 的 top-1 分类准确率。9 H9 l' H6 U a+ n
方法
' z2 ?+ L6 y2 W# t0 f在本节中,研究人员首先介绍了用来降低特征图中空间冗余的特征表示,接着描述了直接作用于该表征的 Octave 卷积(图 4)。研究人员还讨论了实现细节,展示了如何将 OctConv 融入分组和深度卷积架构。
; u5 c' R# f6 ^7 {0 Y 表 1:对于低频特征所使用的低频所占比例 α 的不同,所带来的理论性能提升。当 α=0 时(即没有低频成分),OctConv 就会退化为普通卷积。注意,无论比例 α 选择是多少,OctConv 的参数数量都是与常规卷机一致的(如图 5 所示)。
9 u! M! t0 ~" |7 y1 z8 c 图 5. OctConv 的卷积核
9 A. C! e# e- D- O 图 3:采用卷积降采样后的特征图,在进一步上采样后,将导致整体向右下方漂移,影响特征融合。
$ n1 ~" v! L& ~7 i这里,有一点很有意思。研究人员指出,通过卷积降采样会导致特征图无法准确对齐。并推荐使用池化操作来进行降采样。
2 J1 |# |. ~) \6 j实验评估
" {# _! A# t$ W* S6 a; X1 c; p在本节中,研究人员验证了提出的 Octave 卷积对于 2D 和 3D 网络的效能和效率。研究人员首先展示了 ImageNet 上图像分类的控制变量研究,然后将其与当前最优的方法进行了比较。之后,研究人员使用 Kinetics-400 和 Kinetics-600 数据集,展示了提出的 OctConv 也适用于 3D CNN。每一类别 / 块的最佳结果在论文中以粗体字显示。
( Z* M/ B8 R X5 r 图 4:ImageNet 上的控制变量研究结果。配备 OctConv 的模型较基准模型更有效和更准确。上图每一行的黑色标记●表示没有使用 OctConv 的基准模型。数字表示比例 α。横坐标表示计算开销(FLOP),纵坐标表示准确率。, \. x7 y2 z1 i5 O- ], q
表 2:ResNet-50 的实测时间开销(Inference time)以 2.0 GHz(单线程)在英特尔 Skylake CPU 上进行测量。
) O% w3 r3 T- b$ V; |4 U' |, [ 表 3:下采样的控制变量实验和 ImageNet 上的 inter-octave 连通性。+ t2 \, ^9 R1 g E1 C' X
表 4:ImageNet 分类准确度。研究人员通过调整输入图像尺寸,检测网络对不同大小分布的物体的识别率。
: d; U# k5 O) j% O 表 5:小型模型的 ImageNet 分类结果。2 A* {# d9 \" d5 g
表 6:中型模型的 ImageNet 分类结果。
7 Q9 y9 j. y- g 表 7:大型模型的 ImageNet 分类结果。配备有 OctConv 的模型名称显示为黑色粗体,相关研究的性能数据来自相应论文。使用 CuDNN v10.03 在一个英伟达 Titan V100 ( 32GB ) 上以 flop16 评估网络的训练内存开销及速度。采用神经架构搜索的工作标记为 ( 3 ) 。研究人员将多数例子中的批大小设为 128,但对于大到 GPU 内存无法负荷的网络,他们将批大小减小为 64(带 † 标记的)或 32(带 ‡ 标记的)或 8(带 § 标记的)。
1 j( y* e# C1 t, O) q9 } 表 8:视频中的动作识别、控制变量研究,使用 ResNet50 的所有模型。
: x# i b& s' b B4 Q8 l) E本文为机器之心编译,转载请联系本公众号获得授权。
# x, B) ^/ D O✄ ------------------------------------------------
m" n5 P5 c T# j3 K加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com" [& r/ g5 F' p( s. f
投稿或寻求报道:content@jiqizhixin.com, D/ f8 A. ~8 ~2 ^4 r
广告 & 商务合作:bd@jiqizhixin.com
/ i$ E& c, t+ ?1 E9 S" j
4 T1 E8 B0 E5 ~来源:http://www.myzaker.com/article/5cb734dc32ce4048b300000c/" ~4 j+ Q6 X5 a( G$ ?5 J; w
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|