欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    InfiniBand高速网络互连技术.ppt

    • 资源ID:6508212       资源大小:14.47MB        全文页数:159页
    • 资源格式: PPT        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    InfiniBand高速网络互连技术.ppt

    InfiniBand高速网络互连技术,清风明月 2012年5月,内容提要,超级计算机系统及其互连结构Infiniband互连网络的体系结构在HPC中的典型互连架构及应用IB网络优化技术未来展望,Lecture 1,Lecture 2,内容提要,超级计算机系统及其互连结构Infiniband互连网络的体系结构在HPC中的典型互连架构及应用IB网络优化技术未来展望,国际超级计算机500强排名(TOP500),是美国田纳西大学、伯克利NERSC实验室和德国曼海姆大学一些专家为评价世界超级计算机性能而搞的民间学术活动,每年2次排出世界上实际运行速度最快的前500台计算机。(6月、11月)排名的依据是线性代数软件包Linpack的实际测试数据,而峰值浮点运算速度作为参考值列出。Linpack基准测试程序是一个可以分解和解答线性方程和线性最小平方问题的Fortran子程序集.于20世纪70年代到80年代初为超级计算机而设计测试出的最高性能指标作为衡量机器性能的标准,4,TOP500分析,中国TOP100总Linpack性能达到11.85 Pflops(2010年6.3PFlops),是2010年的1.88倍;跟全球TOP500相比,2011年6月全球TOP500排行榜第一名被日本的K-Computer夺得,2010年11月TOP500第一名的天河1A降为世界第二,但中国的机器份额首次取得第二名,仅次于美国;国家超级计算天津中心以国防科大天河1A再次蝉联中国TOP100第一名,Linpack性能2.57PFlops,峰值4.7PFlops;国家超级计算济南中心以国家并行计算机工程技术研究中心全国产神威蓝光力夺得中国TOP100第二名,Linpack性能795.9TFlops,峰值1.07PFlops,神威蓝光是我国历史上首台全国产的千万亿次超级计算机;国家超级计算长沙中心以国防科大天河1A-HN力夺中国TOP100第三名,Linpack性能771.7TFlops,峰值1.34PFlops。全部机器的Linpack性能超过22.1Tflops是2010年9.6TFlops的2.3倍,比去年的1.41倍大幅提升。全部系统的峰值超过25.6TFlops,是2010年11TFlops的2.33倍,比去年的1.36倍大幅提升;排名前三的机器两套是CPU+GPU异构MPP;97个(2010年98个)系统都是机群架构,机群继续占据主导地位,在前10名里4台是CPU+GPU体系架构,在TOP100中共有13套CPU+GPU异构机群。,近3年来的TOP5超级计算机系统,No1:K Computer,日本理化研究所(RIKEN)高级计算科学研究院(AICS)和富士通共同研制每秒运算速度超越1亿亿次大关。Linpack测试的最大计算性能达到了10.51PFlops,也就是每秒钟1.051亿亿次浮点计算,这也是人类首次跨越1亿亿次计算大关。采用的处理器是富士通制造的SPARC64 VIIIfx,八核心,主频2.0GHz,二级缓存6MB,热设计功耗58W,峰值浮点性能128GFlops。为了获得更高性能,富士通还在其中加入了一系列高性能集群计算扩展,可以有效管理其共享二级缓存,并支持SIMD、每核心256位浮点寄存器、高级核心间硬件同步等等。处理器数量是88128颗,核心数量为705024个,占据864个机柜。这些处理器通过名为“豆腐”(Tofu)的特殊6-D mesh/torus网络连接在一起,带宽5GB/s。同时,“京”的峰值计算性能也达到了11.28PFlops,执行效率为惊人的93.2%,ASCI Springschool 2012,Henk Corporaal,(8),K Computer:10.51 Petaflop/s on Linpack 705024 SPARC64 cores(8 per die;45 nm)(Fujitsu design)Tofu interconnect(6-D torus)12.7 MegaWatt,K Computer的互连架构,6D-mesh/Tours,No 2:天河-1A,国防科技大学,这是超过美国橡树岭国家实验室产品高达40的系统。达到每秒万亿次的峰值性能和每秒万亿次的实测性能。14336颗英特尔六核至强X5670 2.93GHz CPU、7168颗Nvidia Tesla M2050 GPU,以及2048颗自主研发的八核飞腾FT-1000处理器 天河一号A将大规模并行GPU与多核CPU相结合,在性能、尺寸以及功耗等方面均取得了巨大进步,是当代异构计算的典型代表。该系统采用了7168颗英伟达(NVIDIA)Tesla M2050 GPU以及14,336颗CPU。如果单纯只使用CPU的话,要实现同等性能则需要50,000颗以上的CPU以及两倍的占地面积。更重要的是,如果完全采用CPU打造,可实现2.507 Petaflops(千万亿次)性能的系统将消耗1200万瓦特的电力。多亏在异构计算环境中运用了GPU,天河一号A仅消耗404万瓦特的电力,节能效果高达3倍。二者之间的功耗之差足够满足5000多户居民一年的电力所需。,三大突破,“天河一号”除了使用了英特尔处理器,还首次在超级计算机中使用了2048个我国自主设计的处理器。这款名为“飞腾-1000”的64位CPU。它利用65纳米技术设计生产,共有8个核心。中国首创了CPU和GPU融合并行的体系结构。制造了先进的通信芯片,设计了先进的互联结构。160Gb/s,是国际上的商用IB的两倍。,13,TH-1A互连架构,超级胖树结构,NO.3 Jaguar美洲虎,2.331PflopsCray XT5-HE Opteron Six Core 2.6 GHz,近25万个内核,美洲虎的3D-Torus,CRAY 超级计算机的Roadmap,Cray XT5:1+PFLeadership-class system for science,DARPA HPCS:20 PFLeadership-class system,FY 2009,FY 2011,FY 2015,FY 2018,Future system:1 EF,100250 PF,美洲虎,NO.4 曙光“星云”,2.9843Pflops,Infiniband互连,No14:神威蓝光:全国产化的超级计算机问世,该机器获得科技部863计划支持,由国家并行计算机工程技术研究中心制造,于2011年9月安装于国家超算济南中心,全部采用自主设计生产的CPU(ShenWei processor SW1600),系统共8704个CPU,峰值1.07016PFlops,持续性能795.9TFlops,Linpack效率74.37%,总功耗1074KW。国家超级计算济南中心是科技部批准成立的全国3个千万亿次超级计算中心之一,由山东省科学院计算中心负责建设、管理和运营。是国内首台全部采用国产中央处理器(CPU)和系统软件构建的千万亿次计算机系统,标志着我国成为继美国、日本之后第三个能够采用自主CPU构建千万亿次计算机的国家。,神威蓝光拥有四大特点:,全部采用国产的CPULinpack效率高达74.4%,而一般的千万亿次机都在50%左右采用液冷技术,节能高密度,在一个机仓(机柜)里可以装入1024颗CPU,千万亿次规模仅需要9个这样的机仓。,计算机节点,在1U高的机箱中可以放入4个CPU板,每个板上可以装两颗16核的CPU。,这就是神威蓝光的“心脏”:申威1600实物照,在计算节点中采用液冷(据说是使用500元1吨的纯净水)设计也是神威蓝光的一大技术特色,中间是铝制液冷散热板。,国内三大系统比较,Opteron socket,Roadrunner(走鹃)Part 1:Opteron Blades,Opteroncore,Opteroncore,1.8 GHz3.6 Gflop/s64+64 KB L1 cache2 MB L2 cache,LS21 Blade,Roadrunner(走鹃)Part 1:Opteron Blades,8 GBDDR2 memory,8 GBDDR2 memory,Roadrunner(走鹃)Part 1:Opteron Blades,Roadrunner ArchitecturePart 2:Cell Blades,Roadrunner ArchitecturePart 2:Cell Blades,Roadrunner ArchitecturePart 3:Nodes(Triblade=1*Opteron+2*cell),Roadrunner ArchitecturePart 4:Scaling Out,BladeCenter,BladeCenter,BladeCenter,BladeCenter,Compute Unit(CU),Roadrunner ArchitecturePart 4:Scaling Out,Roadrunner ArchitecturePart 4:Scaling Out,Roadrunner Architecture,IBM计划10万万亿次HPC 12倍于世界最快!,今年预计BlueGene/Q“Sequoia”其峰值性能可达到20petaflops,而其升级版将是首个超过10万万亿次浮点计算的超级计算机,达到107petaflops,是目前世界最快K Computer的12倍。,Sequoia(红杉),Sequoia超级计算机是IBM正在为Lawrence Livermore国家实验室研制的一种超级计算机,而这种计算机中使用的Blue Gene/Q处理器就将采用IBM在Hot Chips大会上发表的论文中披露的这种新部件。Sequoia将在2012年完工,有望提供20petaFLOPs(peta1015)的强大性能。当Sequoia完工时,这台超级计算机可能成为世界上功能最强大的系统之一。,计算机技术的发展,自1946年以来,计算机近70年有了惊人的发展性能:(加法)速度提高了5个数量级计算机性能以大约每年35%的速度提高价格:今天$1000的机器相当于60年代中$106的机器,这里同性能计算机的价格比,改善了个数量级。,处理器速度持续提高(广度),从1971年第一颗微处理器Intel 4004问世以来,40年间处理器芯片集成的晶体管数目从2300个发展到今天的数十亿个,处理器频率从不到1MHz发展到今天最高接近5GHz,与英特尔4004相比,如今下一代英特尔酷睿处理器的性能是其35万倍,每个晶体管的能耗却降低了5千倍。同期,晶体管的价格下降了约5万倍。,在30年间计算机系统的速度提高了6个数量级,对计算能力的需求持续增长,超级计算机的性能趋势,CAGR=1.9,1st Pasadena Petaflops Workshop,GFlops,ExaFlops,PetaFlops,TeraFlops,Figure courtesy of Peter Kogge,超级计算机发展路线图,2010,2020,2030,2050,TOP500中的互连网络统计,TOP500 Nov 2011,IB占42%TOP10中有5家采用IB(4/5/7/9/10)TOP20中有8家TOP100中有55%采用IB基于GPU混合系统中有92%采用IB,TOP100中的IO互连架构统计,在TOP100机器的IO互连中55%采用IB,Top500中各种互连的趋势图,典型商业互连网络的性价比,Top500中IB互连的趋势图,内容提要,超级计算机系统及其互连结构Infiniband互连网络的体系结构在HPC中的典型互连架构及应用IB网络优化技术未来展望,为什么TOP500中有42%机器采用IB互连?,高带宽目前主流的单链路传输能力40Gbps,10GB以太网不可比拟超低延时应用程序之间通信延时小于1 us高可靠性、低误码率、自管理的网络链路级流控拥塞控制,IB网络组成,Host Channel Adapters(HCA)Target Channel Adapters(TCA)SwitchesRouters,IB网络组成,多个子网,每个子网是一个独立的路由域子网之间通过交换机互连,一般的HPC只使用一个子网。,IB网络硬件实体,IB网络硬件实体,Blade/RackServers,Storage,Switch,SWITCH,基于IB网络构建的Cluster系统,CA(端结点-主机适配卡),两种类型的CAHCA,通过IB verbs为用户提供操作TCA,IBA未定义TCA接口语义CA是一个具备一定保护功能的可编程DMA引擎,Virtual Lane(VL),Local ID(LID),独立的发送和接收缓冲区,内存翻译和保护,子网管理代理,GUID,IB交换机(多端口交换),子网内部路由设备交换机端口具备LID,具有HCA特性。子网内部的每个端口分配一个或多个唯一的LID通过报文Local Route Header标识目标端口LID,交换机根据该地址信息交换到目标端口提供单播和多播路由支持多路径(负载均衡,链路容错),IB传输分层(对比TCP/IP),Physical Layer Link Rate,InfiniBand使用串行差分链路传输链路宽度1x One differential pair per Tx/Rx 4x Four differential pairs per Tx/Rx8x Eight differential pairs per Tx/Rx12x-Twelve differential pairs per Tx and per Rx链路速度Single Data Rate(SDR)-2.5Gb/s per lane(10Gb/s for 4x)Double Data Rate(DDR)-5Gb/s per lane(20Gb/s for 4x)Quad Data Rate(QDR)-10Gb/s per lane(40Gb/s for 4x)Fourteen Data Rate(FDR)-14Gb/s per lane(56Gb/s for 4x)Enhanced Data rate(EDR)-25Gb/s per lane(100Gb/s for 4x)目前多采用4X链路,Physical Layer link width,Lane的概念,1x即1 lane,类似于PCIE lane,1 x Link,4 x Link,12 x Link,IB物理链路速率历程,串行高带宽链路SDR:10Gb/s HCA linksDDR:20Gb/s HCA linksQDR:40Gb/s HCA linksFDR:56Gb/s HCA linksEDR:100Gb/s HCA links,Physical Layer Cables&Connectors,单个物理信道上复用多个虚拟链路信道,Link Layer Protocol,Message长度最大2GbyteMTU尺寸从256byte到最大 4Kbyte,Link Layer Addressing,每个节点(HCA端节点和交换机)必须拥有一个全局唯一的64位ID(GUID),类似于以太网MAC地址。同时,为了方便路由,在每个子网内为节点分配一个本地ID(LID)-16 bits,子网内线性编号,GUID,GUID,GUID,GUID,GUID,GUID,GUID,GUID,LID=1,LID=2,LID=3,LID=4,LID=5,LID=6,LID=7,LID=8,IB通信协议的硬件实现原理,Transport Layer Using Queue Pairs,发送和接收队列是成对出现的。,Transport Layer 队列模型,IB通信传输示例,Link Layer Flow Control,基于信用(Credit)的链路级流控反压原理,Transport Layer Services Properties,可靠与不可靠面向连接与数据报(非面向连接),服务分类,如何管理子网?,IB网络维持一个子网管理器Subnet Manager(SM)是一个独立软件通过与每个节点上的子网管理代理通信的方式来管理子网,子网管理和路由,每个子网必须有一个子网管理器子网管理器的作用:管理IB网络中的所有节点,包括端节点HCA和交换机SW子网网络拓扑发现 为每个节点分配一个本地ID(LID),用于路由为交换机分配转发表,用于网络路由监控子网状态,当网络发生改变时负责重新分配路由表。维护网络正常运转,子网管理器SM,SM是IB网络中一个重要元素负责配置和管理交换机、路由器、HCA。SM可以被实现在HCA或者交换机等设备上。一个子网内可以有多个SM,其中一个SM为主,其余为备份SM功能进行子网拓扑发现产生子网前缀,为端口分配LID配置每个交换的LID,配置转发表提供节点和服务的数据库服务,子网管理基础子网管理器(1),相对于以太网的分布式管理,在Infiniband网络中,SM通过SMA对子网进行集中管理。这种方式结构简单易于管理。为了防止单点失效问题,在Infiniband中可存在多个SM,一个主SM,多个备份SM。备份SM检测到主SM死亡时,会选择一个备份SM成为主SM,接管子网管理权。,子网管理基础子网管理器(2),主SM是IB子网初始化和配置的关键因素。主SM的选择也是初始化过程的一部分。主SM的主要作用是:发现子网的物理拓扑结构。为每个端节点,交换机和路由器分配本地标识符LID。确定各端节点之间的合理路径。扫描子网,发现拓扑改变处理节点加入和节点删除。,子网管理基础子网管理器(3),子网探测主要是指在Infiniband子网初始化时,SM通过SMA获得子网内各节点信息。主要的信息就是各个节点的GUID,节点类型,端口信息以及各节点之间的连接关系。在子网初始化完毕后,SM还会定时的检查网络拓扑是否发生变化(某个交换机端口的状态发生改变)。交换机检测到自己的某个端口状态发生改变,可以通过Trap机制主动向SM报告拓扑改变。,子网探测,子网发现的过程:子网启动时,SM发送包含Get方法的直接路由SMP,SMA收到后会响应一个SMP,从而找到一个新的节点,然后SM通过这个新节点向外辐射只到找到所有的设备。,子网探测子网发现,对于一个已经初始化的子网,如果SM发现某一个交换机的一个端口的状态从DOWN变为UP,则说明有设备加入到子网中。,子网探测增加设备,对于一个已经初始化的子网,如果SM发现某一个交换机的一个端口的状态从UP 变为DOWN,则说明有设备从子网中移除。,子网探测删除设备,在规范中,并没有规定LID的分配规则,只要满足上述的性质即可。具体实现时,LID的分配与特定的路由算法有关。最简单的分配方式是按照设备的发现顺序,从1开始连续分配。,LID分配,路由计算主要是指SM在得到子网拓扑以后,确定每两个节点之间的路径的过程。SM将这个计算结果以转发表的形式发布给交换机,使数据包沿着计算好的路径传递。转发表是一个LID,PORT组成的表,交换机接收到一个LID路由的数据包时,通过查找目的LID对应的表项,从而确定应该从那个端口转发这个数据包。,路由计算,网络拓扑发现过程,由子网管理器(SM)发起从SM软件驻留的节点开始,按照宽度优先(BFS)、或深度优先(DFS)方法逐个发现,将发现好的节点加入拓扑链表中在进行子网发现的过程中,为每个已发现的节点分配一个本地ID(LID),为后继的路由做准备,网络拓扑发现过程,LID=1,LID=2,LID=3,LID=4,LID=5,LID=6,LID=7,LID=8,IB网络路由过程 交换机内部转发机制,LFT:Lineral Forward Table(线性转发表)首先,根据报文头的SL查找SL-to-VL-Table(服务等级映射表),获得该报文的转发的VL通道。而后,根据目的DLID查找LFT线性转发表,获取下一跳的端口号。,IB网络路由过程寻径过程,SW2,cn0,cn1,cn2,cn3,LID=2,LID=3,LID=4,LID=5,LID=6,1,2,3,4,1,2,3,4,SW1线性转发表,SW2线性转发表,LID=1,SW1,查表,查表,SM,路由节点的添加和删除,子网管理器SM发现拓扑变化主动发现,通过子网扫描被动发现,节点的代理软件主动上报自己的故障端口当拓扑发生改变时,更新路由表,IB网络路由更新过程(1),SW2,cn0,cn1,cn2,cn3,LID=2,LID=3,LID=4,LID=5,LID=6,1,2,3,4,1,2,3,4,SW1线性转发表,SW2线性转发表,LID=1,SW1,SM,链路故障报告,IB网络路由更新过程(2),SW2,cn0,cn1,cn2,cn3,LID=2,LID=3,LID=4,LID=5,LID=6,1,2,3,4,1,2,3,4,SW1线性转发表,SW2线性转发表,LID=1,SW1,SM,更新转发表,IB分层协议栈,由OpenFabric组织制定IB规范,Common,InfiniBand,iWARP,Key,InfiniBand HCA,iWARP R-NIC,HardwareSpecific Driver,Hardware SpecificDriver,ConnectionManager,MAD,InfiniBand Verbs/API,SA Client,ConnectionManager,Connection ManagerAbstraction(CMA),User Level Verbs/API,SDP,IPoIB,SRP,iSER,RDS,UDAPL,SDP Library,User Level MAD API,Open SM,DiagTools,Hardware,Provider,Mid-Layer,Upper Layer Protocol,User APIs,Kernel Space,User Space,NFS-RDMARPC,ClusterFile Sys,Application Level,SMA,R-NIC Driver API,ClusteredDB Access(Oracle10g RAC),SocketsBasedAccess(IBM DB2),VariousMPIs,Access to FileSystems,BlockStorageAccess,IP BasedAppAccess,Apps&AccessMethodsfor usingOF Stack,IB分层协议栈,Applications,User,Kernel,WSD SAN Provider,ManagementTools,VNIC*,Sockets Direct Protocol(SDP)&Reliable Datagram Sockets(RDS),Host Channel Adapter,OpenIB Access Layer,IPoIB,IP,Oracle 10g,SocketApplications,TCP,UDP,SDP,RDS,Kernel,User,UDP Applications,IPoIB,IPoIB Packet Format,IPoIB子网视图,每个端结点HCA的每个IB端口都分配一个独立的IP地址,支持IP v4/v6地址格式结点间通信,可使用IP地址标识,FCoIB,IB网到FC网之间采用透明网桥,FC over IB Gateway Model,Physical View:,Handling initiators loginsActs as an NPIV N_PortReflects F_LOGI as F_DISC,FCoIB Gateway Stateless Packet Relay,IB to FCStrip IB headersPayload contains entire FC frame,FC to IBD_ID lookup to retrieve addressing LID,QPN,etc.Encapsulate FC frame as UD payload,FC Frame,内容提要,超级计算机系统及其互连结构Infiniband互连网络的体系结构在HPC中的典型互连架构及应用IB网络优化技术未来展望,典型的IB交换机实现结构(1),9 x Fabric Boards(single and double dense),2 x Fan Units,6 x Power Supplies,2 x Management Boards,18 x Line Boards,典型的IB交换机实现结构(2),两级胖树结构或者“折叠的clos网络”,IB网络拓扑,Topologies that are mainly in use for large clusters Fat-Tree 3D Torus Mash,IB网络拓扑,3D TorusAn oversubscribed network,easier to scaleFit more applications with locality,IB网络拓扑,Fat-tree(also known as CBB)Flat network,can be set as oversubscribed network or notIn other words,blocking or non blocking Typically the lowest latency network,胖树结构是互连已知硬件数量的一种通用方法。胖树相对传统树,越靠近根部带宽越大。如果要使网络是非阻塞的,每层的总带宽都要相同。,胖树结构,常用的IB网络拓扑结构,利用多个“IB交换机”构造大规模IB网络每个IB交换机内部是胖树结构,64 Node Cluster using blades and Shark-GTs,972 Node Full CBB using Shark/Orca(max 11,664),CoreFabric,8x SFS TS740288 ports each,Edge,256x TS12024-ports each,18 Compute Nodes),18 Compute Nodes),8192 Processor 60TFlop SuperCluster,2048 uplinks(7m/10m/15m/20m),Real Deployments Today:Wall Street Bank with 512 Node Grid,SAN,LAN,2 96-portTS-270,23 24-port TS-120,512 Server Nodes,2 TS-360 w/Ethernet and Fibre Channel Gateways,Core Fabric,Edge Fabric,GRID I/O,Existing Networks,Fibre Channel and GigE connectivity built seamlessly into the cluster,NCSANational Center for Supercomputing Applications,Core Fabric,Edge Fabric,Parallel MPI codes for commercial clients Point to point 5.2us MPI latency,1,066 Node Super Computer,Fault Tolerant Core Fabric,Edge Fabric,12 96-portTS-270,89 24-port TS-120,1,068 5m/7m/10m/15muplink cables,1,066 1mcables,12 Compute Nodes,12 Compute Nodes,1,066 Fully Non-Blocking Fault Tolerant IB Cluster,当前的网络存储技术,New,典型IO互联架构,SAN,Server Fabric,LAN/WAN,Server Cluster,Fibre Channel to InfiniBand gateway for storage access,Ethernet to InfiniBand gateway for LAN access,Single InfiniBand link for:-Storage-Network,SAN/NAS存储结构,S,A,N,NAS,NAS,NAS,tape,数据中心的IO加速,内容提要,超级计算机系统及其互连结构Infiniband互连网络的体系结构在HPC中的典型互连架构及应用IB网络优化技术未来展望,有效的IB通信优化方法,GPUDirect,CORE-Direct,Offloading,Congestion Control,Adaptive Routing,Management,Messaging Accelerations,Advanced Auto-negotiation,MPI,IB网络中典型的MPI通信性能,IB网络路由和拥塞控制,通过子网管理器SM(软件)集中管理每个节点(host和switch)驻留管理代理SMA,与SM交换信息,实现路由和拥塞控制功能,路由算法,寻径过程,为两个机器之间选择一条通信路径。目标:最小代价(最小跳步数)无死锁、活锁平衡网络流量负载避免拥塞,避免通信“热点”竞争,网络拓扑,规则网络网络具有规则的拓扑图结构(ring,meshes,Fat-tree,hypercube,etc)易于优化不规则网络不规则的网络图形状拓扑发现比较关键需要精心设计路由算法,保证无死锁,路由算法的分类:oblivious和adaptive,Oblivious(确定性路由)为每个源和目的对分配一个路由,而不考虑网络流量。这种路由具有一定的吸引力attractive,因为其路由可以事先计算出来,尽管计算的代价可能很高。Adaptive(自适应路由)力图根据当前流量来调节节点间的路由。这种路由能够对全局网络的通信状况迅速作出反应,并实时改变路径以达到流量均衡的目的,通常会使用快速但并非最优化的算法来实现。,IB网络路由,IB网络路由是确定性路由(oblivious)因为IB网络使用基于目标LID的路由转发表在网络构建之初已经形成,转发表是线性的:目的地的LID号 下一跳输出端口任意网络上的确定性路由(oblivious)的最优化问题是NP-hard问题oblivious路由算法通常是保守的,即不需要监控网络实时状态,可采用完全分布式实现方式。,IB网络路由,IBA体系结构能够实现高性能互连基于IBA互连的大型系统通常可允许包含几千个结点。IBA并不受限于某种网络拓扑结构,但最常用的IB网络部署都是用k-ary n-tree拓扑(例如,fat-tree,clos),Minhop最小跳数算法(默认路由算法)Updn Up/down 算法Ftree胖树算法Lash算法Dor算法从文件中加载路由表,OpenSM支持的路由算法,Minhop(最小跳步数路由),Minhop(最小跳步数路由),cn,cn,cn,cn,cn,Up/down 算法,为每条链路指定一个UP方向,一个down方向为了避免死锁,同时能够利用所有的链路带宽,定义如下的UP*/DOWN*规则:一条合法的路由必须经历0个或多个up方向的链路,而后经历0个或多个down方向的链路;同时,一个报文不允许在经过down方向的链路后再次经历up方向链路。为避免死锁,添加转弯约束:不允许 updownup方向的路由,Up/down 算法,Up/down 算法,UP*/DOWN*算法的主要弱点是在生成树的根部会产生通信热点hot spots,因为它是基于树的算法,而不允许使用最短路径路由。另一个弱点是在转弯次数的限制上缺乏一个上限,转弯次数限制依赖于不同的拓扑。,LASH不规则网络的分层路由机制,LASH不规则网络的分层路由机制,根据虚通道VL,将物理网络划分成多个同构的虚拟网络。,LASH不规则网络的分层路由机制,即使对于有128个交换芯片的大网络,虚拟层次数目也不超过6这种对网络流量的分离,对路由效率有很大提升,该方法可用来提升不规则网络的性能,负载均衡和保证最短路径,保证无死锁。算法实现简单,部署这种算法除了使用已有的虚通道技术外,基本上不需要对交换机做任何特殊处理。,胖树路由Fatree,IB网络拥塞控制,典型的拥塞过程,drop,recovery,报文中的拥塞控制机制,拥塞通知,反压过程在报文中设置“拥塞通知标记位”(ECN)ECN分为Forwarding ECN和Back ECN,拥塞避免方法,IB网络本身的拥塞管理和QoS机制链路层基于信用(credit)的流控机制拥塞通知,反压过程基于SL(服务等级)的QoS机制优化的IB网络路由算法保证链路均衡动态调整部分路由,避免拥塞或通信“热点”基于“网络拓扑信息感知”的作业管理和任务调度机制,IB应用性能瓶颈的迁移历程,GPU Direct 技术,GPUDirect,No GPUDirect,没有采用GPU Direct技术的通信方式,Transmit,Receive,采用GPU Direct技术的通信方式,快速的GPU-to-GPU通信GPU通信代价降低30%,Transmit,Receive,GPU Direct的测试结论,分子动力学模拟,来自Mellanox公司的测试结果,虚拟GPU计算,融合“云计算”GPU远程共享GPU云,内容提要,超级计算机系统及其互连结构Infiniband互连网络的体系结构在HPC中的典型互连架构及应用IB网络优化技术未来展望,InfiniBand Link Speed Roadmap,

    注意事项

    本文(InfiniBand高速网络互连技术.ppt)为本站会员(小飞机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开