京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 7591|回复: 0

NVIDIA集成AI超算中心经验,打造AI就绪型数据中心

[复制链接]

7

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-7-28 23:03:46 | 显示全部楼层 |阅读模式 来自 中国
看点:NVIDIA AI 部署宝典:数据中心必看,一并搞定算力、散热、功率难题。
9 Y! A# [' M- E/ n. x! ^/ k1 W' g$ M( R( x+ y" h  @
% G) u! R2 ~( h2 b1 c

% r# }2 q5 S2 I- g& F) T传统数据中心向人工智能(AI)转型已是大势所趋。* b$ X. @1 W1 o3 m- }
一方面,从智能客服、智能安防、智能风控、智能运维到智能质检,愈加丰富的智能化应用致使存储需求呈现指数级增长,并对数据中心的算力提出新的挑战。0 o+ `/ u3 |0 x2 E1 X* I
另一方面,AI 正打破传统数据中心的管理和运营模式,完成更为精准的系统调优、故障预判等任务,替代更多人力,减少能耗和资源浪费,更大程度释放生产力。
4 h( X8 Q1 |% x; K$ `  [作为 AI 时代的基础设施,AI 硬件正成为越来越多数据中心扩容建设的关键所在。尤其是能源、银行、保险、制造、电信、医疗等重度存储用户,急需加速 AI 的基础架构方案。- M) a5 ^$ W0 N
当超强计算力成为数据中心的刚需,NVIDIA GPU 凭借强大的并行计算和浮点能力突破了深度学习的算力瓶颈,成为 AI 硬件的首选。) r$ t0 E: W( L9 T  A
然而,对于许多传统数据中心而言,部署包含 AI 硬件的基础设施,需要耗费许多时间与人力。! Q2 {$ M5 Q6 N7 [' p1 N9 D
对此,NVIDIA 基于 GPU 软硬件生态系统,提供了一站式交付节点解决方案 DGX POD。
0 ], _1 |) L( q. {) Q这一方案可以大大节省构建基础设施所花费的时间,帮助数据中心轻松快速进行 AI 部署,为扩展多 GPU 服务器节点提供更多支持。% m7 J5 ~( ?/ x, y
本期的智能内参,我们推荐《NVIDIA DGX POD 数据中心参考设计》白皮书,从传统数据中心的 AI 转型之困着手,结合 DGX POD 的应用实例,解读 NVIDIA DGX POD 交付节点的核心亮点,为亟待快速转型 AI 的数据中心架构师,以及准备构建 AI 就绪型数据中心提供参考。如需查阅此白皮书《NVIDIA DGX POD 数据中心参考设计》,可直接点击左下方的“阅读原文”下载。
- O7 q: T6 Y, {: l2 ~以下为智能内参整理呈现的干货:
' I8 ?( A' n4 n$ @! V. t# B5 R* K- l

7 A+ C- l4 p5 t数据中心 AI 转型遭遇困局
7 e  v$ y: ?4 k, K1 p& p5 z' |
+ Y5 R5 Q7 ~3 o' O/ s; h1 k
, {* }& x  E8 l+ W, N) w4 E+ z
大数据、AI 与云计算等新兴技术卷起新的浪潮,在各类数据中心中形成连锁反应。海量数据处理任务涌入数据中心,面对人工智能应用的训练和推理,令传统的CPU 服务器难以招架。
# ]3 c1 V. v+ z% j深度学习算法属于计算密集型算法,与 NVIDIA GPU 计算架构十分契合。过去 CPU 需要花数十天完成的计算任务,通用 GPU 只用几小时就能完成,这大幅提升深度学习等并行处理数据方法的计算效率,使得以 GPU 为基础的设备日渐成为各大数据中心进行深度学习训练的首选。
5 J% i. G% H( J, x0 z% b3 G然而,即便部署了强大的硬件设备,也不意味着数据中心的 AI 转型计划就万事俱备了,还有一个关键问题摆在眼前——架构设计。
2 V, y0 j9 @# `" k  j% a) L$ m数据中心需要考虑的因素远不止算力,还需兼顾网络、存储、电源、散热、管理和软件等方面问题。
" s9 T1 f  S) L: |% m1 G硬件组合不是简单粗暴的积木堆叠,并不是说计算节点越多,性能就会随之线性增长。其计算性能会受制于高速互联网络,一旦出现数据拥堵,整机系统的效率都可能被拖累。另外,过多计算硬件堆叠,可能导致功耗过大,不利于日后的运营。
$ D1 G- V( f4 H. m8 k因此,数据中心必须思考如何打造了降本增效的最佳方式,将各种硬件资源协同组合,在稳定安全的状态下,以超低延迟和高带宽访问数据集。
3 K  ^, I& l9 L- u+ b  c$ V8 i这对于缺乏 AI 部署经验的传统数据中心而言,无疑是个不小的挑战。如果 DIY GPU 计算节点,不仅需要耗费人力和时间成本,还要考虑计算、存储、交换机等各种硬件设备的集成兼容问题。
% T. v5 x+ W: d! T$ P4 _对于这一痛点,NVIDIA 提供了一个颇有吸引力的解决方案。
1 ?/ J5 R# l/ w$ P' n; A它通过与领先的存储、网络交换技术提供商合作,提供一系列 DGX POD 数据中心交付节点设计参考架构,将 NVIDIA 长期积累的超大规模数据中心 AI 部署经验,转化为可复制方案,无论是大中小型数据中心,均可以直接参考使用。$ ?) Q6 N- {. ~" r1 I. j' [% J
+ O: P2 Z4 j  g) z- W9 h/ B6 \, N
NVIDIA AI 超级计算机构建经验转换
' F3 \9 P! Y" {7 R5 }) g* g) z

  i5 {7 n$ {' M) y2 W/ ?6 V0 e' v4 o% d: x: M! I5 z
DGX POD 交付节点(Point of Delivery)是一种经优化的数据中心机架,包含多台 DGX-1 或 DGX-2 服务器、存储服务器和网络交换机等最佳实践。
4 G* M7 a) j4 B2 t1 z- d5 K
) Q5 u3 [6 p5 B" p) M$ e# ^▲ DGX POD 参考架构正面图. E' b3 E) {' q
这是 NVIDIA 构建大量超大规模 GPU 加速计算节点的经验之集大成者。NVIDIA 曾建立了大型的 AI 数据中心,包含数千台领先的 DGX 服务器加速计算节点。% e( A- _. J" s3 s. Y2 e# h* {9 P; N
今年6月,NVIDIA 宣布推出全球速度排名第22位的超级计算机 DGX SuperPOD,为企业快速部署自动驾驶汽车项目,提供同等大小的超算无法匹敌的 AI 性能。
  M$ l& |+ b0 d) T) PSATURNV 亦是 NVIDIA 基于 DGX 系统构建的 AI 超级计算机,支持自动驾驶汽车、机器人、显卡、HPC 等多领域的 NVIDIA 内部 AI 研发。早在2016年推出之际,DGX SATURNV 就登上 Green 500 超算榜第一,被评为全球最经济高效的超算,整体运算速度位列第28位,是最快的 AI 超算。5 i2 a4 B) _2 M( n
基于使用 SATURNV 所遵循的设计原则和架构,NVIDIA 在短短三周内就打造出一套基于 NVIDIA DGX-2 配置的全新系统 DGX SuperPOD。近期 NVIDIA 借助一套基于 DGX-2 的配置在 MLPerf 基准测试中创下六项 AI 性能记录。
! d1 h) R! @5 O( d9 K在将 DGX SATURAN 打造成所有企业都可复制的、经验证的设计过程中,NVIDIA 经过实地检验积累了丰富的经验,并将计算、网络、存储等多方面的最佳实践,集中于 NVIDIA DGX POD 的设计之中。
- ]' G: W8 N) ~% w* z8 y9 F如今,包括 Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp 和 Pure Storage 等在内的业内数据中心领导者已围绕 DGX POD,推出了基于其各自特有技术的相关产品。
+ U1 L, q0 t' b4 r+ ^0 s! ?( }这些集成系统均为客户提供经过经验验证的可靠方法,这意味着,每个企业都能量身定制完全适配自身需求的 AI 超算中心。! g( A" \4 R8 I
例如,基于 DGX POD,NetApp 推出了 NetApp ONTAP AI  融合基础架构。其由 NVIDIA DGX-1 服务器、 NetApp 云互联存储系统提供支持,是 NVIDIA 和 NetApp 联合开发和验证的架构。1 Q2 W+ V- k$ j3 W& C  f5 t$ ]' ]
借助这一架构,企业可以从小规模起步进行无缝扩展,智能管理跨边缘、核心和云以及反向数据传输的完整深度学习数据管道,简化  AI  部署。) X% f& i, J- y' R2 E, {$ v
围绕 NVIDIA DGX POD 参考架构和 NetApp ONTAP AI,英国剑桥咨询公司构建了一套专门的 AI 研究设施,用于训练一个能即刻准确识别各种音乐流派的 AI “狂热爱好者”。% J" d# t/ i! H1 |8 F0 X2 b5 [. W
借助参考框架,其 AI 项目所带来的对计算、存储、网络设施的需求均得到满足。经过在16台 NVIDIA GPU 上接受数百小时的音乐训练,这位特殊的音乐爱好者,在“听音识流派”的准确度上,甚至超越了人类和传统编程。
' @. h# O( G7 D7 H$ P& p
% `; N$ C3 Q0 Y
AI 软件:调优 DGX 硬件,降低管理门槛
, X5 B3 V* ^3 L2 e

- S4 ?0 O4 k( m0 ]$ {5 N5 G
5 |. r- v# l+ A除了设计优化的 DGX 服务器、存储服务器和网络交换机组合 ,DGX POD 上还运行一整套适配的 NVIDIA AI 软件堆栈,极大简化 DGX POD 的日常操作与维护,为大规模多用户 AI 软件开发团队提供高性能的深度学习训练环境。1 n! Z- D* z6 [7 p

6 ]1 O& h1 U- R( |▲ NVIDIA AI 软件堆栈1 \5 J2 O3 I3 v6 |$ C1 A4 @: S
NVIDIA AI 软件包括 DGX 操作系统(DGX OS)、集群管理和协调工具、工作负载调度器、来自 NVIDIA GPU Cloud (NGC) 容器注册表的和优化容器,可以为使用者提供优化的操作体验。
# V5 d$ e5 n& CDGX POD 管理软件可根据需要,自动创新安装 DGX OS。DGX OS 是 NVIDIA AI 软件堆栈的基础,基于优化版 Ubuntu Linux 操作系统构建,并专门针对 DGX 硬件进行调优,支持各种 NVIDIA 库和框架及 GPU 的容器进行时。
% K& r' y: Y9 T' F: U6 C1 L3 `
4 v9 r/ ^$ o6 Q( h$ B▲ DGX POD 管理软件层
# b9 H1 X& R* W) O" t7 c* [DGX POD 管理软件层由 Kubernete 容器协调框架上运行的各项服务组成,可通过网络(PXE)为动态主机配置协议(DHCP)和全自动 DGX OS 软件配置提供服务。
8 d* @; r- \; ~8 r3 [通过使用其简单的用户界面,管理员可在由 Kubernetes 和 Slurm 管理的域中移动 DGX 服务器。未来 Kubernetes 增强功能预计在纯 Kubernetes 环境中,支持所有 DGX POD 用例。1 \4 A" d9 Y2 k* B* i7 r2 f
DGX POD 上的 NVIDIA AI 软件可借助 Ansible 配置管理工具进行管理,白皮书中有提供其开源的软件管理堆栈和文档在 Github 上的链接。- H% v& k$ [" D) [- Y9 p( D
智东西认为,DGX POD 一站式交付节点解决方案,不仅能加速数据中心的 AI 部署效率,同时也通过提供更强大的算力,大幅度提升数据的利用效率。3 r1 @! t: X, r
当前,很多数据中心刚刚踏入或计划踏入 AI 的大门,而当下主流的深度学习算法必须配备专业的 AI 基础设施。基于 NVIDIA DGX POD 的架构方案,对于快速构建大规模 AI 计算集群非常具有参考价值。随着此类基础架构逐渐普及,更多数据中心将得以消除设备与资本预算之间的鸿沟。1 @% e" |( s5 E5 z5 t4 y
这只是 NVIDIA 打造 AI 就绪型数据中心宏图的重要版面之一,利用 DGX-1、DGX-2 服务器和NVIDIA GPU 大规模计算架构的发展进步,NVIDIA 正将机器学习、深度学习和高性能计算(HPC)扩展到更多的数据中心,为金融、能源、制造、电信、医疗、科学计算等更多行业的生产力提升提供动力引擎。% g: A3 E4 L# ^& B( l  ]
如需查阅此白皮书《NVIDIA DGX POD 数据中心参考设计》,可直接点击左下方的“阅读原文”下载。
8 {! G  [. L6 c3 q

1 o5 V" a3 T8 `" u
& I) G3 @: R9 t6 s: {" ~来源:http://mp.weixin.qq.com/s?src=11&timestamp=1564324204&ver=1756&signature=lzmOBny3VsKicsBbRilU-jCqaXPlfHO3NiPHxSA5ExQEflvku*zNzABRYJyH2rWKX7OAx1rw4BgY1r0zcj8uiuuI7R3fWMirVZVvIGuP3Oj7k7hAUZBuO0wn8Gimb5uD&new=1
% _2 c) {3 r+ n. l- j7 p免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2026-3-3 16:02 , Processed in 0.045742 second(s), 28 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表