AI时代的GPU集群网络算力分析

da9ff749df22a797dda6f3bfb134a66a.jpeg

 

浅谈GPU集群网络、集群规模和集群算力

 

引言
在生成式AI(GenAI)和大模型时代,不仅需要关注单个GPU卡的算力,更要关注GPU集群的总有效算力。单个GPU卡的有效算力可以通过该卡的峰值算力来测算,例如,对于Nvidia A100,峰值FP16/BF16稠密算力是312 TFLOPS,单卡有效算力约为~298 TFLOPS [1, 2]。
本篇将聊聊GPU集群网络配置和GPU集群规模以及总有效算力,重点讨论算力网络平面。因为存储和管理网络平面相对比较简单,本文就不赘述了。
407dba0d8b487ef0085bb46c002eae0d.jpegGPU集群网络架构示例(两层计算网络)[3]

GPU服务器网卡配置
GPU集群的规模和总有效算力,很大程度上取决于GPU集群网络配置和使用的交换机设备。对于每一款Nvidia GPU服务器,Nvidia都有对应的推荐GPU集群网络配置,例如,对于DGX A100服务器,推荐的服务器之间网络连接是 200 Gbps/卡(即每张A100卡都对应200 Gbps网络连接与其他服务器中的A100卡通信),单台DGX A100服务器配置8张计算网络卡(如InfiniBand 200 Gbps)[1, 2]。
34721edcd9efd8ea420e9b2e5c0f09b6.jpegDGX A100 System, Server Block Diagram [2]
那么GPU服务器之间的计算网络带宽是依据什么来确定的呢?
除了成本因素之外,GPU服务器之间的计算网络带宽是由GPU卡所支持的PCIe带宽决定的,这是因为GPU服务器配置的计算网络的网卡是通过PCIe Switch与GPU卡进行连接的(GPU <--> PCIe Switch <--> NIC),那么PCIe的带宽就限制了计算网络的带宽。
举例而言,对于Nvidia DGX A100服务器,因为单张A100卡支持的是PCIe Gen4,双向带宽是64 GB/s,单向带宽是 32 GB/s,即 256 Gbps。所以,为单张A100卡配置 200 Gbps 的网卡就足够了。

所以,单看计算网络,Nvidia DGX A100服务器配置的是8张 Mellanox ConnectX-6 InfiniBand 网卡(注:也可以配置 Mellanox ConnectX-7,因为ConnectX-7也支持 200 Gbps)。如果是给A100卡配置 400 Gbps 的网卡,因为受到PCIe Gen4带宽限制,400 Gbps 的网卡作用是发挥不出来的(那么就浪费了很多网卡带宽)。
674f1a26fef74789c61ba6e1598329bc.jpegNvidia DGX A100 system topology [4]
对于Nvidia DGX H100服务器,因为单张H100卡支持的是PCIe Gen5,双向带宽是128 GB/s,单向带宽是 64 GB/s,即 512 Gbps。所以,为单张H100卡配置 400 Gbps 的计算网卡是Nvidia推荐的标准配置&nbsp;。

单看计算网络,Nvidia DGX H100服务器配置的是8张 Mellanox ConnectX-7 InfiniBand 网卡,单个H100卡拥有 400 Gbps 对外网络连接 [5]。
4c521bb38bed997929d2e1ce7a26b962.jpegDGX H100 Configuration [5, 6]
需要说明的是,对于A800和H800服务器的计算网络配置,国内使用A800和H800服务器一般不是采用Nvidia DGX推荐的标准配置。例如,对于A800服务器,计算网卡配置常见的有两种方式:第一种是 8 x 200 GbE,即每张A800卡有单独的200 GbE网卡配置(8张A800卡一共有 ~1.6 Tbps RoCEv2计算网络连接[7]);

第二种是 4 x 200 GbE,即每两张A800卡共享一个200 GbE网卡,单卡最高是200 GbE网络,平均每张A800卡有对外100GbE的连接&nbsp;[7]。第二种方式类似Nvidia DGX V100的设计 [8]。考虑到可以先在A800服务器内进行通信聚合,然后再与其他服务器通信,所以这两种计算网卡配置方式对于整个集群效率的影响基本一致。
H800支持PCIe Gen5,对于H800服务器,常见的计算网卡配置方式是 8 x 400GbE,即每张H800卡有单独的400 GbE网卡配置,每张H800卡都有对外400 GbE的计算网络连接,8张H800卡一共有 ~3.2 Tbps RoCEv2 计算网络连接 [7]。
这里还想谈一下华为昇腾910B NPU卡。

昇腾910B支持PCIe Gen5 [15],也就是说理论上昇腾910B单卡可以配置400 GbE的对外网络连接。例如,装配有16卡昇腾910B的服务器一般可以选择配置 8 x 400 GbE网卡,也就是单卡最高是400 GbE网络,平均每卡是200 GbE网络。

华为昇腾910B采用的是NPU直出200 GbE的设计,所以每个NPU直接连接的是200 GbE的网络,那么装配有16卡昇腾910B的服务器一般配置 16 x 200 GbE网卡,装配有8卡昇腾910B的服务器一般配置 8 x 200 GbE网卡。
Nvidia使用NVLink和NVSwitch实现了单个服务器内多个GPU之间的高速互联,而使用多个服务器组建集群时,PCIe带宽仍然是主要性能瓶颈(集群网络瓶颈),这是因为当前网卡和GPU卡之间的连接主要还是通过PCIe Switch来连接。

随着未来PCIe Gen6(2022年标准发布)普及应用,甚至PCIe Gen7(预计2025年标准发布)普及应用,GPU集群的整体性能又会上一个新台阶。还有2024年将要发布的Nvidia H20也是支持PCIe Gen5。

GPU集群网络和集群规模
上面讨论了单个GPU服务器的网卡配置,接下来讨论GPU集群网络架构(GPU cluster fabrics)和集群规模。实践中最常用的GPU集群网络拓扑是胖树(Fat-Tree)无阻塞网络架构(无收敛设计),这是因为Fat-Tree架构易于拓展、路由简单、方便管理和运维、鲁棒性好,且成本相对较低。

实践中,一般规模较小的GPU集群计算网络采用两层架构(Leaf-Spine),而规模较大的GPU集群计算网络采用三层架构(Leaf-Spine-Core)。这里 Leaf对应接入层(Access),Spine对应汇聚层(Aggregation),Core对应核心层。
468fdfe52fa7d8ed7cc84f573cd0b54d.jpeg三层Fat-Tree计算网络示例 [9]
假设一个GPU集群的计算网络里采用相同的交换机,每台交换机端口数为P,使用两层Fat-Tree无阻塞计算网络(Leaf-Spine),一个GPU集群里GPU卡的数量最多为 P*P/2 [9, 14]。
在两层Fat-Tree无阻塞计算网络里(Leaf-Spine),第一层中每一台Leaf交换机用P/2个端口来连接GPU卡,另外P/2个端口向上连接Spine交换机(无阻塞网络要求向下和向上连接数量相同)。

第二层中每台Spine交换机也有P个端口,可以向下最多连接P台Leaf交换机,所以在两层Fat-Tree无阻塞计算网络里最多有P台Leaf交换机,所以总的GPU卡的数量最多为P*P/2。因为有P个Leaf交换机,每台Leaf交换机有P/2个端口向上连接Spine交换机,所以有P/2个Spine交换机。
例如,对于Nvidia A100集群,假设使用40端口的交换机(如Nvidia Mellanox QM8700),在使用两层Fat-Tree计算网络情况下,一个A100集群最大可以有800个A100卡(40*40/2 = 800)。
b82c264989c5d1b0c4a39240a3b53397.jpeg两层Fat-Tree计算网络示例 [10]
值得注意的是,如果一台GPU服务器内已经有卡间高速互联了(如NVLink和NVSwitch),则同一台服务器中的GPU卡不应该连接到相同的Leaf交换机上;不同服务器中的编号相同的GPU卡(例如,A服务器中的3号卡 与 B服务器中的3号卡)应该尽量连接到同一个Leaf交换机上,以便提高分布式计算效率(例如,提高跨服务器AllReduce操作的效率)。
需要特别说明的是,对于GPU服务器内没有卡间高速互联解决方案的(例如,L20服务器、L40S服务器),需要尽量将一台服务器内的GPU卡连接到同一台Leaf交换机上 [4],以便避开跨NUMA通信。
我们从上面的分析可以看到,假设使用128端口的交换机,两层Fat-Tree无阻塞计算网络能够接入的最大GPU数量仅为8192(128*128/2 = 8192)。如果要构建更大规模的GPU集群,我们需要从两层计算网络扩展到三层计算网络。
对于规模较大的GPU集群,一般需要采用三层计算网络架构。

假设一个GPU集群计算网络里采用相同的交换机,交换机端口数为P,对于三层Fat-Tree无阻塞计算网络(Leaf-Spine-Core),一个GPU集群里GPU卡的数量最多为 P*P*P/4 [9, 14]。
从两层Fat-Tree网络向三层Fat-Tree网络扩展,我们可以把两层Fat-Tree网络看成一个单元(即一个两层Fat-Tree子网络)。因为每台Spine交换机有一半端口向下连接Leaf交换机(每台Spine交换机最多只能连接P/2个Leaf交换机),另一半端口向上连接Core交换机,所以每个两层Fat-Tree子网络里只能有P/2个Leaf交换机。

在无阻塞网络里,各层的连接数量都要保持相同,所以Spine交换机和Leaf交换机的数量相同。
因为Core交换机也有P个端口,可以连接P个这样的两层Fat-Tree子网络,所以三层Fat-Tree无阻塞计算网络(Leaf-Spine-Core)中一共有P*P/2个Leaf交换机和P*P/2个Spine交换机,所以GPU卡的总数量最多为(P/2)*(P*P/2),即 P*P*P/4。Spine交换机向上连接Core交换机的连接数为P*P*P/4,所以一共有P*P/4个Core交换机。
162c21dc9ca0e7a283f461e198ab11b5.jpegH800 GPU集群网络拓扑举例 [11]
从上面的分析我们看到,GPU集群的规模是由计算网络的架构和交换机的端口数决定的(当然,GPU集群规模也受限于机柜、供电、制冷和机房等硬件因素)。我们在下表中举例说明集群规模与交换机端口数的关系,以三层Fat-Tree无阻塞网络为例。
如果一个服务器内有M个GPU共享一个网卡,则GPU总数量要乘以M。例如,如果一个服务器内的两个GPU卡共享一个网卡,例如,装有8卡的A800服务器配置的是 4 x 200 GbE网卡方案,那么GPU卡的总数量还要乘以2(参考Nvidia DGX V100 [8])。
606e6d9e1f2499f1bfdc883c343dd3f4.jpeg
我们从上面的表格可以看到,基于三层Fat-Tree无阻塞网络构建的GPU集群,其规模能够满足大部分大模型训练和分布式计算的需求了,所以就不再需要考虑四层或者更复杂的网络拓扑了。
在上面的分析中,我们假设了整个GPU集群计算网络都是使用相同的交换机,如果Leaf、Spine、Core分别使用不同的交换机(甚至某一层都可能使用不同的网络交换机),那么对于GPU集群网络和集群规模的分析就变得比较复杂了。

GPU集群算力
一个GPU集群的有效算力可以用下面公式表示:Q = C*N*u。其中,Q表示集群总有效算力;C表示集群中单个GPU卡的峰值算力;N表示集群中GPU卡的数量;u表示集群中GPU卡的算力利用率。这里,C是指一个计算任务使用N个GPU卡所能获得的总有效算力。如果使用GPU集群进行大模型训练,那么算力利用率u就是我们常说的MFU (Model FLOPS Utilization)。
关于算力利用率u,我们要进一步区分算力利用率与线性加速比k。即便是我们在使用单张GPU进行计算,也有算力利用率的问题(相应的,也有显存利用率的问题,Model Bandwidth Utilization (MBU)[12]),例如,单卡算力利用率 u = 75%。如果一个计算任务里使用了N个GPU卡,那么算力利用率u一般会随着GPU数量N的增加而变小;总有效算力C会随着N的增加而增加,直到饱和(即N增加的边际效用递减)。一个GPU集群的总有效算力C随着N增加的变化速度就是线性加速比k。
74834ddc79b4645b84a58827df995636.jpegGPU集群总有效算力随着GPU卡数量的变化情况示例 [11]
举例而言,Q1 = C*N1*u1,Q2 = C*N2*u2,那么 k = (Q2/N2) / (Q1/N1) = u2/u1,这里假设 N2 >= N1(所以u2 <= u1),且 Q2 >= Q1。
假设理想情况下,单卡算力利用率 u2 = u1,即线性加速比k为100%,那么随着N的增加,集群总有效算力线性增加。这里线性加速比是说集群总有效算力随着GPU卡数量增加而变化的情况,假设k为100%,那就是完美的线性增长。虽然假设线性加速比k为100%,但是单卡的有效利用率可能会比较低,例如,u2 = u1 = 50%。所以,算力利用率和线性加速比是从两个不同的维度来描述GPU集群性能。
如果假设 u1 = 45.29%(@N1 = 3584),u2 = 42.19%(@N2 = 10752),那么线性加速比就是k = 93% [13]。
实践中,GPU集群的线性加速比受到很多因素影响,包括GPU卡的峰值算力、显存容量、显存带宽、卡间互联方式、服务器间的网络带宽、网络架构、网络交换机、软件和算法等等。在比较好的情况下,一般可以做到线性加速比在90%以上。对于大规模GPU集群,GPU算力利用率一般在50%左右。

57561d6a8aa9d62a230286eaba5df8ba.jpeg

-对此,您有什么看法见解?-

-欢迎在评论区留言探讨和分享。-

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/2980942.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

C语言入门课程学习笔记1

C语言入门课程学习笔记1 第1课 - 概论第2课 -helloworld第3课 -数据输出第4课 -数据类型与变量第5课 - 深入数据类型与变量第6课 - 类型与变量编程练习第7课 - 程序中的数据输入 本文学习自狄泰软件学院 唐佐林老师的 C语言入门课程&#xff0c;图片全部来源于课程PPT&#xff…

Linux内核之hook机制:call_void_hook用法实例(六十一)

简介&#xff1a; CSDN博客专家&#xff0c;专注Android/Linux系统&#xff0c;分享多mic语音方案、音视频、编解码等技术&#xff0c;与大家一起成长&#xff01; 优质专栏&#xff1a;Audio工程师进阶系列【原创干货持续更新中……】&#x1f680; 优质专栏&#xff1a;多媒…

【国产替代】航空电子通信总线航空电子通信总线产品为MIL-STD-1553和ARINC 429等协议提供原生支持

航空电子通信总线 航空电子通信总线产品为MIL-STD-1553和ARINC 429等协议提供原生支持。这些产品用于进行航空电子应用所需的开发、生产和系统测试。 PXIe&#xff0c;2通道PXI ARINC-664接口模块 AIM ARINC-664具有板载处理器&#xff0c;可自动处理所有与协议相关的活动&…

在vscode上面进行分支merge的记录

前言&#xff1a;在我们的项目中&#xff0c;有两个分支&#xff1a;master和liutielong。现在要将liutielong分支的改动merge到master分支中。 如果master分支已经更改了&#xff0c;所以要先pull&#xff08;这是在git bash里面的命令&#xff09;。 git pull origin master…

Java虚拟机类加载机制详细总结

1、概述 Java虚拟机把描述类的数据从Class文件加载到内存&#xff0c;并对数据进行校验、转换解析和初始化&#xff0c;最终形成可以被虚拟机直接使用的Java类型&#xff0c;这个过程被称作虚拟机的类加载机制。 2、类加载的时机 一个类型从被加载到虚拟机内存中开始&#xff…

网盘——查看文件

本文主要讲解文件操作过程中&#xff0c;查看文件如何实现&#xff0c;实现步骤如下&#xff1a; 1、实现步骤&#xff1a; A、首先客户端发送查看请求&#xff08;包含目录信息&#xff09; B、服务器将文件名字还有文件的类型发送给客户端&#xff08;只发送文件的名字&am…

基于小程序实现的查寝打卡系统

作者主页&#xff1a;Java码库 主营内容&#xff1a;SpringBoot、Vue、SSM、HLMT、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、小程序、安卓app等设计与开发。 收藏点赞不迷路 关注作者有好处 文末获取源码 技术选型 【后端】&#xff1a;Java 【框架】&#xff1a;ssm 【…

Esp32-S3 进行JSON解析

之前介绍了esp32-s3的http通信,对于返回的结果进行解析也是必须的,通常我们可以使用json格式进行通信,这样即便于理解也便于取值。今天我们介绍下JSON解析。 在这里用到的库是ujson,代码如下,将如下代码保存到设备即可 import micropython import json from json import …

S-Edge网关:柔性部署,让物联网接入更统一

S-Edge网关是什么&#xff1f; 网关是在实际物理世界与虚拟网络世界相连接的交叉点&#xff0c;为了让这个交叉点尽可能的复用&#xff0c;无需每种设备都配套一种连接方式&#xff0c;边缘网关主要就是用于传感器等物理设备与网络实现数据交互的通用设备&#xff0c;也称为物…

【简单讲解下如何学习C++】

&#x1f3a5;博主&#xff1a;程序员不想YY啊 &#x1f4ab;CSDN优质创作者&#xff0c;CSDN实力新星&#xff0c;CSDN博客专家 &#x1f917;点赞&#x1f388;收藏⭐再看&#x1f4ab;养成习惯 ✨希望本文对您有所裨益&#xff0c;如有不足之处&#xff0c;欢迎在评论区提出…

Windows10如何关闭Edge浏览器的Copilot

在Windows10更新后&#xff0c;打开Edge浏览器&#xff0c;无论复制什么内容&#xff0c;都会弹出Copilot人工智能插件&#xff0c;非常令人反感&#xff0c;网上搜索的关闭方法都非常麻烦&#xff0c;比如&#xff1a;组策略和注册表。自己摸索得出最简便有效的关闭方法。 1、…

Shadowsocks PAC模式自定义规则

Shadowsocks PAC模式自定义规则 关键词&#xff1a;Shadowsocks, PAC自动模式, 编辑PAC用户自定规则, PAC规则 Shadowsocks使用PAC自动模式时&#xff0c;访问一个网站要不要走代理&#xff0c;需要用户手动进行干预。 编辑PAC规则 点击菜单栏shadowsocks图标&#xff0c;在…

【网络安全】HTTP协议 — 基础

专栏文章索引&#xff1a;网络安全 有问题可私聊&#xff1a;QQ&#xff1a;3375119339 目录 学习目标​ 一、万维网的诞生与发展​编辑 1.万维网的诞生与发展 2.HTTP协议诞生与发展 二、网络基础 1.TCP/IP分层传输 1&#xff09;TCP/IP协议 2&#xff09;封装与拆封 …

云计算中的过度授权:安全隐患与应对策略

云计算凭借其弹性、可扩展等优势&#xff0c;已经成为诸多企业组织拓展业务的重要基础设施之一。然而&#xff0c;与传统IT架构相比&#xff0c;云计算环境的安全管理也面临着新的挑战。过度授权 (Overprivileging) 便是云安全领域亟待解决的主要问题之一&#xff0c;本文将带领…

mysql download 2024

好久没在官网下载 mysql server 安装包。今天想下载发现&#xff1a; 我访问mysql官网的速度好慢啊。mysql server 的下载页面在哪里啊&#xff0c;一下两下找不到。 最后&#xff0c;慢慢悠悠终于找到了下载页面&#xff0c;如下&#xff1a; https://dev.mysql.com/downlo…

OceanBase诊断调优 】—— 如何快速定位SQL问题

作者简介&#xff1a; 花名&#xff1a;洪波&#xff0c;OceanBase 数据库解决方案架构师&#xff0c;目前负责 OceanBase 数据库在各大型互联网公司及企事业单位的落地与技术指导&#xff0c;曾就职于互联网大厂和金融科技公司&#xff0c;主导过多项数据库升级、迁移、国产化…

uniapp APP检测更新

需求&#xff1a; 1.首次进入APP给出弹窗提示是否存在最新版本APP&#xff0c;可选择更新或者取消 2.选择取消后&#xff0c;在使用期间不再弹出该弹窗 3.在设置中增加按钮&#xff0c;点击进行版本检测&#xff0c;再弹窗 效果图&#xff1a; 使用到的插件&#xff1a;APP升…

消灭AI“耗电巨兽”?暴雨服务器推出液冷节能降耗算力方案

在科技飞速发展的今天&#xff0c;人工智能已成为驱动未来的重要力量。随着AI及大模型技术的进一步普及和应用场景的拓宽&#xff0c;相关算力需求呈指数级增长&#xff0c;大规模的AI训练和推理过程均需消耗大量电力&#xff0c;如同一个巨大的电力黑洞&#xff0c;吞噬着海量…

鸿蒙OpenHarmony【LED外设控制】 (基于Hi3861开发板)

概述 OpenHarmony WLAN模组基于Hi3861平台提供了丰富的外设操作能力&#xff0c;包含I2C、I2S、ADC、UART、SPI、SDIO、GPIO、PWM、FLASH等。本文介绍如何通过调用OpenHarmony的NDK接口&#xff0c;实现对GPIO控制&#xff0c;达到LED闪烁的效果。其他的IOT外设控制&#xff0…

【iOS开发】(五)react Native路由和导航20240421-22

【iOS开发】(五)react Native 路由和导航Navigation 20240421 在&#xff08;一&#xff09;&#xff08;二&#xff09;中我们 Reactnative搭建了开发环境、学习了 基础语法、状态管理&#xff0c;JSX、组件、状态和生命周期以及样式布局等。 在&#xff08;三&#xff09;&a…