京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 7047|回复: 0

世界第一超算跑深度学习模型,2.76万块V100 GPU将分布式训练扩展到极致

[复制链接]

15

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-10-2 17:03:46 | 显示全部楼层 |阅读模式 来自 中国
选自 arXiv

0 X# _# s: ^  I; H; B2 z
作者:Nouamane Laanait、Joshua Romero等

/ a3 k; P2 I. {/ B! ~9 L3 B
机器之心编译

. G* D* m* J$ L5 S* u
分布式计算确实需要在很多 GPU 上训练,但你见过在排名第一的超算上训练深度模型,在 2.76 万块 V100 GPU 训练模型的方法吗?重要的是,通过新的通信策略,这么多 GPU 还能实现近线性的加速比,橡树岭国家实验室和英伟达等机构的这项研究真的 Amazing。
" ?' @" P6 U6 b" [6 N3 _
: F) a2 _/ ]4 \# Q" \( U- o
论文链接:https://arxiv.org/pdf/1909.11150.pdf
) l  _1 ]+ R5 T# J
. h. J2 M  C4 V在这篇论文中,研究者介绍了同步分布式 DL 中一种新型通信策略,它主要由梯度缩减编排和梯度张量分组策略组成。这些新技术令计算和通信之间产生了最完美的重叠,并且完成了近线性的 GPU 扩展。1 u' _. q8 d; V6 |

. }2 v" u* y6 U9 [也就是说,在 Summit 超算中,它能使用 2.76 万块 V 100 GPU 高效地训练模型,且扩展系数达到了惊人的 0.93。0.93 是个什么概念?我们可以通过 TensorFlow 的官方 Benchmark 了解一番。如下所示,60 块 GPU 理想情况下能获得 60 倍的加速,但是以前 TF 训练 ResNet-152 只能获得 50 倍的加速。1 j) P* M* F3 O: i

" S: f. n6 H& L& b7 T" S' c: I

( h% V* j/ h; ?& F/ T图片来源:https://www.tensorflow.org/guide/performance/benchmarks8 J3 p% P. v  u" x1 g- Q7 [& q1 B

0 F% {6 U8 f! ?- M, G& L这还只是 60 块 GPU,它的扩展系数就只有 0.83。此外,如果 GPU 扩展到 1000 乃至更多,那么这个系数还会急剧下降。
# ]% _! j8 D+ ^& |$ x. K8 h1 r; b
尽管近来很多分布式训练策略也能达到近线性扩展,例如 Ring All Reduce 或刘霁等研究者提出的 DoubleSqueeze(ICML 2019) 等等,但如这篇论文能在超算、在 2.76 万块 V 100 GPU 上实现近线性的加速性能,还是非常少见。: j7 P* G4 l" [
$ {+ H4 M& w% G" V' I  f% l
此外,重要的是,研究者展示了大规模分布式 DL 训练在科学计算问题中的强大能力,它能更合理地利用超算的能力。本文并不重点介绍这一部分,感兴趣的读者可查阅原论文。
4 e" \. ?$ S+ K0 u: c! S6 u* C- L. Q  ]4 O9 ~& K
什么是分布式训练
  i' K8 a  D& x
+ u) P: [& @6 |, ?: ^
3 [9 M+ ~/ K/ d8 [0 c

7 r  o% j7 c5 s直观上,分布式训练只不过是由一块 GPU 扩展到多块 GPU,但随之而来的是各种问题:模型、数据怎么分割?梯度怎么传播、模型怎么更新?) G3 _# q7 d( O: T+ j
" a1 u" ?: b' l; A1 P& h9 W% |8 ]
在分布式计算中,一般我们可以将不同的计算机视为不同的计算节点,它们通过互联网相连而组成整个计算集群。现在重要的就是找到一种方法将计算力与模型训练相「结合」,也就是分布式策略。最直观的两种策略可能就是模型并行与数据并行,它们从不同的角度思考如何分割模型训练过程。( D9 l- }8 [/ Y0 Q+ `* m: J% L
; J. {( K! r+ a: f# f
其中模型并行指的是从逻辑上将模型分割为不同的部分,然后再部署到不同的计算节点,就像 AlexNet 那样。这种方式主要解决的是模型参数量过大等耗显存的情况。数据并行指的是将数据集分割为不同的子模块,然后馈送到不同的节点中。与模型不同,数据天然就是可并行的,因此实践中大部分问题都采用数据并行策略。
9 {1 J: A5 o: _3 B' j2 @* f; O
& x2 W8 B9 `  o5 M" _在数据并行中,具体还有多种并行策略,例如同步 SGD 和异步 SGD 等。它们是最常见的分布式训练方法,TensorFlow、PyTorch 等框架都可以直接调用这几种模式。

5 F* G* C6 C" S, }* w: x/ n$ Z+ f, ~同步 SGD 与异步 SGD 的更新过程,其中同步 SGD 会等所有服务器完成计算,异步 SGD 不同的服务器会独立更新参数。: ]5 `3 [0 i" ]2 b; Y

8 B  s$ G9 k, @9 u4 T
数据并行的问题在哪?8 Y, x3 y( K" |) m4 D4 x5 b

. b3 A9 V. x3 |
7 U  Q8 O3 G: f3 R4 x9 ~
! Z1 ]; b  T9 ^+ d3 M尽管数据并行是使用最广泛的方法,但它缺点也非常明显。作为一种分布式策略,数据并行需要的通信量非常大,需要在训练过程中执行阻塞通信集合来同步 DNN 梯度。在单个训练步骤中,计算和通信操作之间的次优重叠会带来通信开销,或造成数据并行分布式深度学习效率低下。
. M+ D/ C/ [2 x! |% \7 R
. ^* H( f3 d4 I9 L在使用 10 到 100 块 GPU/TPU 加速器的中小规模系统中,由于系统噪声和负载变化的存在,这些扩展低效可能很难检测并得到系统地优化。然而,需要注意的是,即使只是 5-10% 的扩展低效也会在大量训练步骤和训练过程中积累,从而进一步加深深度学习对环境的破坏。+ j) T5 K1 _/ F6 t% f

$ c* H* B( V  i+ U) e* H9 j' D6 k% h. n数据并行实现的扩展低效在大规模系统中表现最为明显,如在 1000-10000 块芯片的加速系统中,很多分布式策略会产生大量损失。在本文中,研究者提出,超级计算机是开发和测试能实现数据并行近线性扩展的梯度缩减策略的理想系统。
. T# X1 e4 l% y. m5 a
# K+ }; ]( n4 }将数据并行扩展到大规模的超级计算机系统也是由后者的传统负载(包括科学的数值模拟)推动的。尤其重要的是,将深度学习应用到科学模拟中来加速执行、减少算力需求,通常需要使用 DNN 来逼近长期存在的逆问题的解。在本文中,研究者通过改进梯度缩减策略展示了这一方向的第一步。
; Y- F' E: d  @* E* N1 m# e
+ i. d! z+ {7 \% L" e: d用超算测测数据并行+ `( s! t: s  H& [

* r1 |3 H* l) o, I- G! q6 }! a) ^
本文中展示的所有测量数据都是在橡树岭国家实验室的超级计算机 Summit 上得到的,它也是目前世界上计算速度排名第一的超级计算机。
" c4 F  l+ V( z# o+ X& Y9 v1 C7 v/ h2 I
Summit 系统包含 256 个机架,上面遍布 IBM Power System AC922 计算节点(总共有大约 4600 个节点),每个计算节点配有 2 个 IBM POWER9 CPU 和 6 块 NVIDIA V100 GPU。/ r; A3 W0 n$ R  [

( e' f6 [  C' G: L- L# _- I. {研究者着眼于一个用于 DNN 分布式训练的数据并行方法。目前规模最大的分布式 DNN 训练是由 Kurth 等人(2018)实施的,用来在气候模拟数据上学习一个分割任务。他们使用一个修改过的 DNN 分割模型(DeepLabV3),该模型的单个 GPU 计算性能可以达到 38.45 TFLOP_16(16 指的是 float 16 精度),相当于 V100 GPU 理论峰值速度的 31%。9 e! e  {0 Z" e4 c: K: F: |8 x1 J

9 ]) G+ }0 J" K# b3 c$ d  [' [在下图 1 中,研究者测量了分级 allreduce 多达 1024 个 Summit 节点的扩展效率。这种次线性扩展非常明显,原因在于大型节点上的 worker 协作低效,导致通信和计算之间的重叠较差。4 b7 F$ X: R. E0 u# W
( _, b. }  U( u& j& ?5 h, A
图 1:不同梯度缩减策略对于扩展效率的影响。: }7 z% f  b; `& I9 `1 ^7 F) [/ [
8 a, E6 i# s0 {

1 ~8 c$ f# O; W6 }( A5 ~3 q9 Q核心思想:梯度缩减策略3 ^! L0 q$ w# {0 C2 T

1 @  |# S9 P* S5 `要在超算这种超大规模算力上实现近线性的扩展,那么就需要构建更好的分布式策略。研究者表示,他们主要的贡献即实现了新的梯度缩减(gradient reduction)策略,从而在计算与通信之间实现了最优的重叠,这令 GPU 扩展性能达到了新的 SOTA。
& P* Z$ S: ^. Q5 q& L
+ H2 m1 q6 Q3 A! z2 q* B7 s直观而言,梯度缩减策略包括(1)轻量级的服务器协调技术(BitAllReduce)、(2)梯度张量分组策略(Grouping)。这两种编排策略从不同层面提升了用 Horovod 实现的分布式深度学习性能。
6 u" |1 M( R$ I4 m7 c9 v7 b8 L2 b
 BitAllReduce 和 Grouping 对 GPU 扩展效率的影响分别在图 1 中用黑线和红线显示。同时,它们带来了超过 8 倍的缩放效率(图 1、2)。这些梯度缩减策略与计算平台无关,并且不对节点的连通网络拓扑结构进行任何假设。; o3 c( C( X- d
5 w# v# D% R0 Q+ N: f' A
图 2:Horovod 时间线展示了通过编排 Bitvector Allreduce 和 Grouping 带来的提升,其中蓝色的垂直线为环(cycle)标记。
  {" f& Y7 `0 T# _- a1 T% P) j
" M; Z( K8 t# d8 v  H首先,Bitvector Allreduce 修正了通过集合(collective)进行梯度张量缩减的协调方式(参见图 3)。Bitvector Allreduce 的主要思想是使用缓存的元数据,并令它与每个梯度张量相关联,从而允许本地访问每个 MPI-rank,以全局地协调执行集合操作(collective operation)。从本质上讲,我们用单个集合(Bitvector 上的 MPI Allreduce)替换了 Horovod 的原始服务器策略(请参见图 3b)。
. J" j  U6 {: M* w( c( b, d- t/ f: t; c6 h- i* M, z

; k5 t( e5 T/ O+ x% ^$ G- P3 U9 n图 3:协调策略对比,3a:在原始协调策略中,Rank 0:(i) 收集请求 T_n;(ii) 确定所有等级中的通用请求;(iii) 构建关联响应 R_n; (iv) 将响应的有序列表广播到所有等级的执行过程中。3b:改进后的协调策略,每一个等级都检查响应是不是在缓存中,并相应地在 Bitvector 中的设置位。
' c2 \: A7 v% h* ~# v" b! k9 {
( d) s7 U8 j3 w/ O0 q- h( U* Z6 W7 J' M其次,研究者引入了「分组」方案,它将梯度张量看做图着色算法。本质上来说,每一个 MPI 等级根据它的计算依赖性图对节点进行上色,其中节点就等于梯度张量。然后,我们就能根据不同的颜色将梯度张量分组(如图 4 所示)。然后,仅针对所有等级上都已经准备完全的组进行集合操作(Collective operation)。「分组」的优势之一是使用户能够灵活地以开发 DNN 模型体系结构的方式制定集合,从而实现更高的效率。6 O1 ~8 E  Y- r

" U0 U! ?- A9 t  c2 b/ D* Y图 4:分组图示。左侧展示了由生成请求 T_n 构建的任务图,其中不同的任务为不同的节点,该任务图通过虚线框表示 Horovod 在三个子环中可见的请求。节点通过不同的颜色表示任务可以分为两组:蓝色实线的节点和绿色虚线的节点。! @. c! `$ b0 E

% z( {# ?" @+ v$ R4 o: F最后,研究者发现 Grouping 和 Bitvector Allreduce 能独立地使用,但是联合使用能获得更多的性能提升。这里只是简要介绍了梯度缩减策略的思想,更多的实现细节可以查阅原论文第四章节。7 L, b9 u. m# A8 U* l3 m

: i& t. a0 X6 }' {1 X/ v试验效果% v% i# C9 t  ^, t0 [* |

* E/ K) `! L' |$ ?# q6 _超级计算机上执行应用程序效率的一个重要指标是测得的功耗。特别是,使用 Allreduce 这样的阻塞集合,会导致在 GPU / CPU 上执行的所有操作停止,直到返回来自集合的结果。
1 F. _2 y/ _/ X& k# A. D; `7 U- I& N
下图 5 展示了作者使用 Bitvector Allreduce 和 Grouping 进行分布式训练时 Summit 上主要硬件组件的功耗。& K( u3 C4 u4 `& U$ m' U- v4 Y/ O

4 {' a5 G7 \0 R# A: b" e3 h

! ?" m, H! R( z! M0 d图 5:在 4600 个节点上进行分布式训练时,Summit 的功耗分析。功耗信息收集自一次分布式训练中 Summit 的主要硬件组件(GPU,CPU 等)。7 G3 r. K' l6 ]6 a& g& E

, c0 I, k% {) p. B+ s. X. d9 E# o除了功耗之外,作者还使用新的梯度缩减策略概述了分布式训练的计算性能。给出的性能测量均包括:(1)I / O(数据读取和模型检查点的写入),(2)DNN 正向和反向传播执行的计算,以及(3)嵌入计算图中的通信运算。
# q* S  r: S& d- k0 Q: U- V  E8 k; h

& e& J1 {1 a0 w/ _* j# t
5 G" Z' q* X0 A4 l+ t$ n在表 1 中,作者使用前面描述的性能评估方法,总结了在单个 Summit 节点上执行应用(一个训练步)时的数学运算、时间以及整体性能。
+ J) E3 j$ ?& N1 c) h; }, u7 D6 _, M4 m$ _5 N6 _2 r
最后,使用第 2.3 节中描述的通信策略,研究者们能够在分布式深度学习期间(图 6)在 4600 个节点上实现 0.93 的扩展效率,并达到 1.54(2)(2.15(2)))EFLOPS_16。
8 w( Y( @! q6 Q) Q5 F4 n5 Q
6 S7 c4 x, H2 b' `# @: Z7 Q/ j& G3 `
图 6:使用改进的梯度缩减策略扩展至 27,600 个 V100 GPU 时分布式深度学习的扩展效率和持续性能
! }& }: W. [- H) t* e# s( f7 T+ O

$ b+ Z) h' B, a; K
机器之心「SOTA模型」最新上线15大领域、127个任务,机器学习 SOTA 研究一网打尽。
www.jiqizhixin.com/sota+ o3 C9 S+ X/ f4 \9 W

3 d/ |) H: M  M# {- L+ N0 F
PC 访问,体验更佳

, o' V7 g+ Z3 J# V& \$ V6 {- |* v# ~) @
来源:http://mp.weixin.qq.com/s?src=11&timestamp=1570005004&ver=1887&signature=bqCzksfrABantdLsHa6TB5WsIKhZaZ*2QdOS6boCNAXIgBrxYcQAg5VMzhMvJSBt59enVXf5HP0kvgGzsRzR-WSeQ1XGEeveVJS3nT57ltlleH0Bd1Q3*UTuWpM4TWcg&new=1* d6 `1 a. e# s8 d9 x
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-10-16 10:57 , Processed in 0.052009 second(s), 27 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表