京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2823|回复: 0

经典ResNet结果不能复现?何恺明回应:它经受住了时间的考验

[复制链接]

10

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-4-13 15:24:50 | 显示全部楼层 |阅读模式 来自 中国
【新智元导读】ResNet原始结果无法复现?大神何恺明的经典之作受到了网友质疑,不过何恺明本人现身解答之后,让真理越辩越明。7 m' l5 x( Z8 N$ s

# n8 _' k6 U/ m! D' u大神何恺明受到了质疑。2 W  k- p& g, G; S- M$ Z8 @
今天,Reddit 上一位用户对何恺明的ResNet提出质疑,他认为:: {4 w6 U- }( s2 q6 b  Z
何恺明 2015 年的原始残差网络的结果没有被复现,甚至何恺明本人也没有。
" P" J" n; {, R, d- n
) t; [1 ]' d0 j3 {7 J网友称,他没有发现任何一篇论文复现了原始 ResNet 网络的结果,或与原始残差网络论文的结果进行比较,并且所有的论文报告的数字都比原始论文的更差。3 k( D- k  H* b) v
论文中报告的 top1 错误率的结果如下:
+ x; @) y/ W$ F4 O. \

    6 T8 v0 L1 E( R* H3 B
  • ResNet-50 @ 20.74
    2 w# d* I8 c- A1 [7 H
  • resnet - 101 @ 19.87
    1 X* M3 A( Y; v9 [5 V4 B: Y
  • resnet - 152 @ 19.38
    + W" a. P& s" w1 [9 W8 |
何恺明等人在2015年提出ResNet之后,ResNet很快成为计算机视觉最流行的架构之一,这篇论文已经被引用了超过20000次。' C( G# u& _2 q& {) Y8 w$ l3 {
4 o) Z2 }3 L" L
不过,网友称,DenseNet (https://arxiv.org/abs/1608.06993, 3000 + 引用) 和 Wide ResNets (https://arxiv.org/abs/1605.07146, ~1000 引用) 都没有使用这个结果。甚至在何恺明最近的一篇论文中,也没有使用这个结果。
( b: C. o9 x: G+ u$ |按理说,何恺明这篇论文应该是这个领域被引用最多的论文之一,原始 ResNet 的结果真的没有被复现出来吗?在继续讨论之前,让我们先来回顾一下ResNet的思想,以及它之所以强大的原因。4 C* \& T1 Q1 p4 d! R4 Z
重新审视 ResNet:计算机视觉最流行的架构之一
0 T4 y& F) `  \% K" G$ d- {2015 年,ResNet 大大吸引了人们的眼球。实际上,早在 ILSVRC2012 分类竞赛中,AlexNet 取得胜利,深度残差网络(deep Residual Network)就成为过去几年中计算机视觉和深度学习领域最具突破性的工作。ResNet 使得训练深达数百甚至数千层的网络成为可能,而且性能仍然优异。- f3 V$ @! o% c
由于其表征能力强,ResNet 在图像分类任务之外的许多计算机视觉应用上也取得了巨大的性能提升,例如对象检测和人脸识别。 % t5 e/ A- c/ m& V- m
自 2015 年以来,许多研究对 ResNet 架构进行了调整和改进。其中最著名的一些 ResNet 变体包括:/ i3 n& V0 ]% o" e1 s

    , m' \  M2 \1 O! ]3 J+ k- |
  • 何恺明等人提出的 ResNeXt
    9 l/ s% ~- J5 h5 o5 _/ M  u9 b# Z
  • 康奈尔大学、清华大学和 Facebook 联合提出的 DenseNet7 c$ r& s7 j; F* t9 @
  • 谷歌 MobileNet3 P. c3 O" Q' G0 y' f) h! h
  • 孙剑团队 ShuffleNet" u  C# F# A6 N( q
  • 颜水成团队的双通道网络 DPN
    $ [1 A, ~+ j% A# ^1 l) M2 j; u8 D
  • 最近南开大学、牛津大学等提出的 Res2Net$ d) T/ _! [& o+ [+ A3 y% y

    % G0 b" r1 r7 d' W2 O6 @8 Y( [% L
  • ……
    7 x. R1 z. {6 g6 @; C7 W" o: Y( s& H' V- [1 @: n6 K
那么 ResNet 的核心思想是什么呢?
: k, S# K6 V1 k$ V% Y根据泛逼近定理(universal approximation theorem),如果给定足够的容量,一个单层的前馈网络就足以表示任何函数。但是,这个层可能是非常大的,而且网络容易过拟合数据。因此,研究界有一个共同的趋势,就是网络架构需要更深
+ F/ o" E  N# q, B) G+ ]+ A从 AlexNet 的提出以来,state-of-the art 的 CNN 架构都是越来越深。虽然 AlexNet 只有 5 层卷积层,但后来的 VGG 网络和 GoogLeNet 分别有 19 层和 22 层。; N1 ^4 P) M  e. ?8 M' ?( q9 C/ f3 i
但是,如果只是简单地将层堆叠在一起,增加网络的深度并不会起太大作用。这是由于难搞的梯度消失(vanishing gradient)问题,深层的网络很难训练。因为梯度反向传播到前一层,重复相乘可能使梯度无穷小。结果就是,随着网络的层数更深,其性能趋于饱和,甚至开始迅速下降。& ~) I0 e4 N& L9 O: v* Z

! S5 |! V* e( Z* w. g0 d# \+ S网络深度增加导致性能下降0 s; z- h/ O; a4 |* r4 @
在 ResNet 之前,已经出现好几种处理梯度消失问题的方法,例如,2015 年 C. Szegedy 等人提出的 GoogLeNet 在中间层增加一个辅助损失(auxiliary loss)作为额外的监督,但遗憾的是,没有一个方法能够真正解决这个问题。& Y; ^* G( P( n3 O6 O/ F0 x
6 X; C6 ]; }0 {+ L+ a# z* J+ `
ResNet 的核心思想是引入一个 “身份捷径连接”(identity shortcut connection),直接跳过一层或多层,如下图所示:1 s# |4 `' N2 ~5 s: I

/ T! D' {3 L' G$ L$ Z一个残差块- [+ u& r; o- J7 L+ M
何恺明等人于 2015 年发表的论文《用于图像识别的深度残差学习》(Deep Residual Learning for Image Recognition)中,认为堆叠的层不应该降低网络的性能,因为我们可以简单地在当前网络上堆叠身份映射(层不处理任何事情),并且所得到的架构性能不变。这表明,较深的模型所产生的训练误差不应比较浅的模型的误差更高。作者假设让堆叠的层拟合一个残差映射(residual mapping)要比让它们直接拟合所需的底层映射更容易。上面的残差块(residual block)显然仍让它做到这点。
1 U" W! @8 S5 T( ]! _, f0 O* l
8 u2 v8 L3 [( ^( s' O4 xResNet 的架构3 `( L) Z5 |' {% T9 B& N
那么这次质疑“不能复现”的结果是什么呢?讨论点集中在原始论文中的表3和表4:
0 k6 V! ~+ n/ m8 q2 Y/ i; d8 B" q5 n$ o# r3 W

3 E0 ]7 v* _0 d4 Y8 C) {5 d0 m* f表3:ImageNet验证集上10-crop测试的错误率* `# r2 e0 ?) u$ Q+ l

& l  q5 x; m9 V+ f; l) J6 G$ L3 p
' ^* g3 w$ F% ~0 U& M2 q* [  `表4:ImageNet验证集上sigle-model的错误率结果
$ x) p# P) X9 e由于其结果优异,ResNet 迅速成为各种计算机视觉任务最流行的架构之一。
; D' o( V8 H) ], [新智元昨天发表的文章《对 ResNet 本质的一些思考》,对 ResNet 做了较深入的探讨。作者表示:6 v* y, B3 a! n1 G8 Z. }" R2 p& `
不得不赞叹 Kaiming He 的天才,ResNet 这东西,描述起来固然简单,但是对它的理解每深一层,就会愈发发现它的精妙及优雅,从数学上解释起来非常简洁,非常令人信服,而且直切传统痛点。2 t# G4 F9 ?) r/ b7 \& w! h, T9 `

1 A  ?6 |( H3 M' Y% C( ~7 Z, wResNet 本质上就干了一件事:降低数据中信息的冗余度
+ y" m1 `, M4 F3 W8 M  F4 y8 b; c' G4 b
具体说来,就是对非冗余信息采用了线性激活(通过 skip connection 获得无冗余的 identity 部分),然后对冗余信息采用了非线性激活(通过 ReLU 对 identity 之外的其余部分进行信息提取 / 过滤,提取出的有用信息即是残差)。
0 W$ G9 Y: q/ H* `/ w- B
+ Z+ W) J$ m) B2 a$ `. C2 u" r其中,提取 identity 这一步,就是 ResNet 思想的核心
" p* V% U8 R. Z! C5 H6 H8 R! k8 T再回到文章开头的讨论:原始 ResNet 的结果真的无法复现吗?) u7 ?, b0 }: g0 W4 Q9 x
4 s2 W2 c5 [1 P" g( |
针对网友的质疑,不少人在帖子下回复,可以总结为两个方面:  H* y8 G9 _% N. X- f# z- Z

5 O% k+ ?% j9 t

    " `1 ?1 |+ l- J0 q0 }: s
  • ImageNet 有多种测试策略,后来的论文在复现ImageNet时采用的是当时流行的策略,而非 ResNet 原始论文的策略;
    ! h2 G) i5 T: }+ F5 `, x( r$ a4 F9 K8 D% K" u7 Q4 x1 V2 k
  • 后来的论文在训练时采用了一些与原始论文不同的优化技巧,使得结果甚至比原始 ResNet 论文的结果更好
      U* W$ a% x, j; m( M
何恺明本人也第一时间作出回复:
% o( I5 f$ I: W: S4 B9 l: s9 AImageNet 上有几种测试策略:(i) single-scale, single-crop 测试; (ii) single-scale, multi-crop 或 fully-convolutional 测试;(iii) multi-scale, multi-crop 或 fully-convolutional 测试;(iv) 多个模型集成。3 k4 \+ B( A- H+ `* i
在这些设置下,这篇论文的 ResNet-50 模型的 top-1 错误率为:(i) 24.7% (1-crop,如我的 GitHub repo 所展示), (ii) 22.85% (10-crop,论文中的表 3),(iii) 20.74% (full -conv, multi-scale, 论文中的 Table 4)。论文中使用的 (ii) 和 (iii) 的描述见第 3.4 节。4 U) e7 Y5 l- P4 S: Y; z
当时是 2015 年,(ii) 和 (iii) 是最流行的评估设置。策略 (ii) 是 AlexNet 的默认值 (10-crop), (ii) 和 (iii) 是 OverFeat、VGG 和 GoogleNet 中常用的设置。Single-crop 测试在当时并不常用。+ M0 s5 F. d! j, d
2015/2016 年后,Single-crop 测试开始流行。这在一定程度上是因为社区已经变成一个对网络精度的差异很感兴趣的环境 (因此 single-crop 足以提供这些差异)。
. s1 d. [! p3 u- tResNet 是近年来被复现得最多的架构之一。在我的 GitHub repo 中发布的 ResNet-50 模型是第一次训练的 ResNet-50,尽管如此,它仍然十分强大,并且在今天的许多计算机视觉任务中仍然是预训练的骨干。我认为,ResNet 的可复现性经受住了时间的考验' b/ ~4 L  ~# b0 Z( x* l
Reddit用户ajmooch指出:
! d4 t+ m1 u4 Y' l9 ?你忘记了测试时数据增强 (test-time augmentation, TTA)。表 4 中的数字来自于不同 scales 的 multi-crop 的平均预测 (以计算时间为代价优化精度),而其他论文中的数字是 single-crop 的。
8 B6 }0 o5 e$ O( j; {表 3 列出了 10-crop 测试的数据。表 4 的数字更好,所以它肯定不是 single crop 的数字。我的猜测是 n-crop,可能还包括其他增强,比如翻转图像。
( H" A! T% q% @% G) }这个帖子读起来有点像指责,我不喜欢。ResNet 因为在 ImageNet 测试集上表现出色而著名,而 ImageNet 测试集隐藏在服务器上,他们没有办法在那里处理这些数字。ResNet 是我能想到的被复现最多的架构之一。它显然是合理的。在开始批评别人之前,我们应该先了解我们在批评什么。
/ u/ p0 P4 @3 D6 Y+ \4 y) K. i9 [谷歌大脑工程师hardmaru也回复道:
0 K6 J+ W* h7 h# h% D! \/ I9 }在何恺明加入 FAIR 之前, FAIR Torch-7 团队独立复现了 ResNet:https://github.com/facebook/fb.resnet.torch, H- K+ U* F4 V2 a, _$ l
经过训练的 ResNet 18、34、50、101、152 和 200 模型,可供下载。我们包括了使用自定义数据集,对图像进行分类并获得模型的 top5 预测,以及使用预训练的模型提取图像特征的说明。9 z1 p' w; d$ N  I8 I
他们的结果如下表:  Z' H2 {0 Q5 W2 x" m/ }
) p* W% Z1 L6 K. \
经过训练的模型比原始 ResNet 模型获得了更好的错误率。8 x/ r& X: y. W3 t; V
* D  J7 u$ B7 K" o& A. X2 k
但是,考虑到:
* W; c9 t' H& |0 q' p这个实现与 ResNet 论文在以下几个方面有所不同:  a/ z& x, S% s1 \/ `. K5 Y
    ' L/ A3 \' N; t. V" b# {
  • 规模扩大 (Scale augmentation):我们使用了 GooLeNet 中的的规模和长宽比,而不是 ResNet 论文中的 scale augmentation。我们发现这样的验证错误更好。% S5 d2 k5 N: F6 Y4 \
  • 颜色增强 (Color augmentation):除了在 ResNet 论文中使用的 AlexNet 风格的颜色增强外,我们还使用了 Andrew Howard 提出的的亮度失真 (photometric distortions)。7 |7 i( @$ C$ i; A0 d" r& A% }; w
  • 权重衰减 (Weight decay):我们将权重衰减应用于所有权重和偏差,而不仅仅是卷积层的权重。
    + U; ^7 r2 u2 v& D+ l9 P
  • Strided convolution:当使用瓶颈架构时,我们在 3x3 卷积中使用 stride 2,而不是在第一个 1x1 卷积。% n$ Y8 _! h: [, h2 a, K9 Z6 J0 ?
何恺明的 GitHub 有 Caffe 模型训练的原始版本和更新版本的 resnet,而且报告的也不同:2 k/ U' f1 U2 e: ]3 t# Q5 H
(https://github.com/KaimingHe/deep-residual-networks/blob/master/README.md)# J. z" P4 X5 g. z1 N) A; K. n0 D

. i5 [# x% ^2 A) q# \6 `也许他的 GitHub 报告中的方法与论文不一致,但为了可重复性而不使用相同的方法也有点奇怪。
: q' J$ z) r9 `5 w1 k3 A* s$ i也许 arxiv 或 repo 应该使用一致的数字进行更新,或者更好的是,使用多次独立运行的平均值。
- Z" b. U, d: |( |2 _2 J) \2 U# l& \2 l但是随着 SOTA 的改进和该领域的发展,其他人花费资源来产生旧的结果的动机就更少了。人们宁愿使用他们的资源来复现当前的 SOTA 或尝试其他新想法。
- p9 l( R" b6 M% x- W许多人引用它是因为它的概念本身,而不是为了报告排行榜分数。' v; G) B$ D! f
【2019新智元 AI 技术峰会精彩回顾$ k) j) @4 l# y# C, a: w' j
2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。7 V. b! g& \# m3 W0 V5 `% R
同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。
: S7 w5 @) x+ N0 w% r- c, m, a7 ?- L$ ]  L9 Q
' `* x5 K4 t5 m: X9 I' K# }
7 a; q- i5 ?0 W
来源:http://www.yidianzixun.com/article/0LiubL66
1 |; Y" u( d* ^( b免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2026-3-3 14:24 , Processed in 0.038304 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表