高性能计算系统设计方案.doc
《高性能计算系统设计方案.doc》由会员分享,可在线阅读,更多相关《高性能计算系统设计方案.doc(26页珍藏版)》请在三一办公上搜索。
1、高性能计算系统方案设计第1章 需求分析1.1 高性能计算的和大规模数据处理的应用高性能计算作为一种先进的科研手段,在国内的应用发展很快,得到了普遍的重视,近年来国家投入逐年加大。高性能计算的应用条件已经成熟,表现在:u 价格相对低廉的高性能机群系统为高性能计算应用提供了物质基础;u 高性能计算应用的技术门槛逐渐降低;u 国家鼓励相关单位做高性能计算的研究,相关投入不断加大;u 很多高校的科研人员使用高性能计算手段,取得了很好的成果。1.1.1 计算机架构由于各学科高性能计算应用软件种类繁多,各种软件的应用特点也各不相同,对计算资源的需求存在差别,方案的设计需要充分考虑到实际应用的特点。作为高性
2、能计算基础设施的核心,现代高性能计算机的发展从20世纪70年代的向量计算机开始,也已经有了30年的发展历程。先后出现了向量机、多处理器并行向量机、MPP大规模并行处理机、SMP对称多处理机、DSM分布式共享存储计算机、Constellation星群系统、Cluster集群系统、混和系统等多种主体的架构,并分别在不同的时期占据着应用的主流。开放的Cluster集群系统具有较多的优势,已经占据了目前高性能计算机的主流位置,在TOP500中占据了约80的份额,在中小规模的高性能计算系统中更是占据统治地位.1.1.2 软件的并行特点按照应用程序是否为并行程序,可以分为如下几类:u 串行程序程序运行中只
3、有一个进程或线程.串行程序不能利用高性能计算机多个处理器的并行特点,但可以同时运行程序的多个任务或算例。u 共享内存并行程序程序运行中可以有多个进程或多个线程,可以使用多个处理器进行并行计算。但这种并行程序不能在分布式内存的机群系统上运行。u 消息传递并行程序消息传递式并行程序可以在所有架构的计算机上运行,可以同时使用数目很多的处理器,以加速程序的运行。在高性能集群系统上,各种程序都可以运行,可以使用集群系统的一个CPU,一个节点或多个节点。1.1.3 互连网络高性能计算系统的互连网络包括计算网络,数据IO网络,管理监控网络等。对于并行程序来说,进程之间的通信量也有着显著差别。对于进程间通信量
4、较小的程序来说,使用高性价比的千兆以太网就可以满足需求.对于通信密集型的并行程序,多个进程之间数据交换频繁,对互连网络的性能要求很高,要求具有较高的带宽和很低的延迟,千兆以太网就不能很好满足要求,需要使用高速网络,如Infiniband,其单向带宽达到20Gb,延迟小于2微秒. 从2010 TOP500 排行榜中我们可以看到,千兆以太网和Infiniband网成为高性能计算机网络互联的主流,尤其从性能份额上来说,Infiniband网更是占据了绝大部分的份额,所以在国际主流的较大系统中,Infiniband计算网逐渐成为主流。高性能网络的基本性能如下我们可以看到,对于千兆以太网,带宽达到112
5、MB/s,延时非常高,达到47.57us。而使用万兆以太网,虽然带宽和延时均有显著提高,但是与Infiniband网相比,还是有较大差距。万兆以太网使用TCP/IP协议,带宽达到770MB,延时约为12us,使用Iwarp的RDMA协议,性能有一定提升,带宽达到1046MB/s,延时达到7.68us。对于Infiniband网,DDR和QDR的带宽有较大差距,但是延时比较接近,分别为1.6us 和1。3us。值得注意的是,QDR的IP over IB的性能有了大幅的提升。1.1.4 操作系统高性能计算的操作系统由最初的Unix操作系统为主,目前随着集群架构的逐渐广泛和Linux操作系统的逐渐成
6、熟,Linux操作系统逐渐成为高性能计算机的主流,占到80%以上的市场份额。为了使得集群系统有较好的兼容性,可以配置多种操作系统,如Linux(Redhat,Suse),Windows HPC server等.第2章 系统方案设计2.1 方案总体设计2.1.1 系统配置表序号名称技术规格单位数量1硬件部分1。1计算子系统刀片平台TC4600标准19英寸5U机架式刀片机箱、可以支持14个计算刀片;1管理模块,集成远程KVM和远程虚拟媒体;2千兆网络交换模块,提供6个RJ45千兆接口;4冗余热插拔散热模块;42000W电源(3+1冗余热拔插);台5计算刀片CB60G15带FDR计算刀片2Intel
7、XeonE5-2660 八核处器(2.2GHz);88GBDDR31333MHz;1300G 2.5寸10000转SAS硬盘;1*56GbInfiniband接口;21000M以太网接口; 片63管理/登录节点曙光I620rG102U机架式;2IntelXeonE5-2660 八核处器(2。2GHz);84GBDDR31333MHz;1300G 2.5寸10000转SAS硬盘;156GbInfiniband接口;21000M以太网接口; 1冗余电源;1*超薄DVDRW;1*上架导轨;台21。2存储子系统存储系统曙光DS600-G10双控FC3U ,16盘位,双控制器,4个8Gb/s FC+8个
8、1Gb ISCSI主机通道,双锂电池,2*2GB Cache;冗余电源;含4个SFP(8Gb);Cache容量可升级为2*16GB;600G 15000转 6Gb SAS硬盘*16块套11。3网络子系统计算网络IB 交换机FDR Infiniband交换机,36 端口台2Infiniband线缆MX MC2207310-005 56GB QSFP FDR 5M IB光缆根65管理网络千兆交换机 48端口交换机,10/100/1000baseT铜接口台2防火墙集群安全模块TLFW-1000T 龙芯防火墙标配6个千兆电口,1U机架.并发连接数120万,吞吐量1G,支持SSL VPN隧道数300配合
9、Nikey智能密钥*10:曙光精心打造的USB Key解决方案,内置8位国产安全芯片,自主开发COS.硬件实现数字签名,私钥永不出Key。台11。4机柜子系统机柜系统曙光天潮标准机柜标配2个PDU、双侧门,无电源箱,无监控液晶触摸一体机个3曙光天潮标准电源箱380V无监控电源箱个1监控系统曙光智能机柜监控系统支持四台机柜温湿度远程监控套1曙光集群监控中心监控液晶触摸一体机,含LCD、触摸屏、监控主机各1套,安装在机柜前面板门上套1控制台曙光集群控制台1U手动伸缩控制台(曙光17液晶显示器、鼠标、键盘、8口切换器等)套1视频切换系统SKVMSKVM IV Over IP(包含键盘鼠标)台1CIM
10、KVM节点控制模块个72软件部分操作系统LinuxSuSELinux企业版套1集群管理系统曙光GridView 2.5GridView HPC版,支持系统部署、系统监控、集群管理、数据报表、统一告警、作业调度。basic portal,包含serial 和 mpi,支持互动作业,作业故障自动切换重启,文件传输,查看修改文件操作.套65Gridview ClusQuota 集群配额系统,可支持用户机时配额管理,充值计费管理,用户信用管理等功能。(可选)套1应用门户系统曙光Gridview Clusportal 系统包含Fluent软件作业调度套1应用开发环境编译器GNU编译器,支持C/C+For
11、tran77/90Intel 编译器,支持C/C+ Fortran套1数学库MKL,BLAS、LAPACK、ScaLAPACK、FFTW套1MPI并行环境OpenMPI(支持Infiniband和以太网的MPI环境)套1MPICH2(支持千兆以太网的MPI环境)套12.1.2 系统拓扑图2.1.3 系统方案说明u 计算系统CPU整体峰值性能达到17.7万亿次,可以扩展到500万亿次;u 主要产品都采用了冗余设计(电源、风扇等),存储系统采用冗余设计,系统的可靠性有较高保证;u 系统功耗(不含空调制冷系统)不超过为,150千瓦,电费可按此核算;u 曙光公司将为用户提供完善的服务,包括安装调试、系
12、统优化、用户培训等,这些都不单独收费,用户不必考虑这些方面的费用;u 曙光公司提供5年免费上门服务,极大降低了用户的运行维护费用;u 曙光公司是领先的专业高性能机算机及方案提供商,拥有较多的成功案例,包括百万亿次超级机算机的成功案例,产品的可靠性和稳定性得到了充分验证.2.1.4 需求相应分析l 先进性本系统中,我们使用的刀片集群架构,为目前高性能发展的先进趋势。使用的最新一代Intel E52600处理器,为目前性能最高的X86处理器.使用的FDR网络,也为目前最为先进的网络技术。同时,系统中使用的并行文件系统、自动功耗管理系统和HPC应用WEB potal,均代表着HPC的先进的发展方向。
13、l 高可靠、高可用需求系统采用刀片服务器,冗余电源,双控制器存储系统、高级别RAID系统,以及关键节点的HA双机,同时,高效管理监控系统也是保证系统高可靠、高可用的保证。l 适合用户应用软件需求用户应用软件众多,用户众多,对计算需求大,系统共配置101TFLOPS的计算能力.针对部分应用对节点间网络需求高,配置了高带宽,低延时的FDR Infiniband网。带宽达到56Gbps,延时小于1us。同时,海量计算时的IO并发读写量巨大,对存储的容量和性能需求惊人,系统配置了并行存储系统,能够实现所有存储的统一地址和并发读写。l 易使用需求系统配置了HPC WEB Portal,可以有效降低用户使
14、用难度。同时,针对系统和应用的专业培训,也能提高使用人员的使用水平.针对应用软件的安装调试也大大降低了用户的使用难度。l 可扩展性需求集群的架构可以保证计算系统的良好扩展,同时,并行存储的架构也实现对存储系统的扩展。l 易管理维护需求配置高效管理系统,支持监控、告警、管理、报表等多项功能,解决管理员的后顾之忧,同时,对管理员的培训和对系统的运维支持,也能有效提高系统的管理水平。l 节能环保需求配置了刀片系统和高效节能系统,支持空载节点的自动待机,能够有效降低能耗,帮助用户节省运维成本。2.2 计算系统2.2.1 刀片集群系统共配置63个双路8核刀片服务器,主频2.2Ghz,双精度峰值接近17万
15、亿次。目前,开放的集群(Cluster)系统具有较多的优势,已经占据了目前高性能计算机的主流位置,在TOP500中占据了80以上的份额,在中小规模的高性能计算系统中更是占据统治地位。刀片式集群系统在计算密度、功耗散热、运营成本、维护成本、可靠性等方面,都明显优于其它系统,且为系统的扩容升级提供了良好的基础,刀片系统的优势主要体现在以下几个方面。n 计算密度更高提高计算密度是刀片服务器发展的主要动力之一.对于大规模并行计算机来说,提高计算密度尤其重要,刀片式集群系统有效提高了计算密度.n 机房要求降低大规模高性能计算机将对机房空间提出较高的要求,并且要为系统的扩容升级留下空间。刀片式集群系统实现
16、了较高的计算密度,并且有效降低了系统功耗,对系统空调等散热系统的要求也相对降低。n 功耗散热降低刀片服务器的功耗部件较少.刀片柜中的电源将由多个刀片共享,所以会使用高效率电源,减小了系统功耗,同时产生的热量减少,减少了冷却系统的耗电量。节能的设计体现在曙光刀片服务器的各个层面:1)根据实时功耗确定工作电源个数,使电源工作在最佳效率曲线上。2)修改计算刀片操作系统内核,实现节能3)多计算刀片任务调整调度n 布线简单在机架式服务器构成的集群系统中,系统布线是一个很大的问题。系统的线缆可能包括高性能计算网络(Infiniband,以太网等)、数据网络、管理网络、监控网络、电源网络、KVM网络等,这些
17、线缆需要连接到每一个计算单元.尤其是在高密度、计算单元数目又比较多的情况下,系统布线是令设计人员头疼的问题。刀片式集群系统可以大大减少系统布线的数量。多个刀片服务器可以共用冗余电源,内置的交换机将高速网络(Infiniband等)、数据网络、管理网络、KVM网络集成在一起,只需要对刀片柜进行布线,刀片柜内部的计算刀片通过背板连接,无需布线。根据计算,使用刀片式集群,可以节省85以上的系统布线。n 可靠性提高曙光刀片服务器采用无源背板进行系统互连,与传统的线缆连接方式相比,把可靠性提高到了一个数量级以上。刀片系统采取模块化、冗余、热插拔设计,进一步提高了系统的可靠性。n 管理方便曙光刀片服务器管
18、理监控高度集成:通过统一的监控界面,监控所有刀片资源,包括机箱电源、风扇、计算刀片、背板、交换机。管理系统整合目前两大监控技术,即IPMI以及KVM (Over IP),真正实现监视控制一体化。同时,为实现方便快捷的刀片服务器管理,通过优化的管理软硬件设计,改善可管理性,增强部署和可服务性,这些将降低总的所有权成本.2.2.2 Intel E52600处理器性能优势2012年3月,Intel Xeon 处理器E5-2600发布,E5-2600处理器相比上代双路服务器Xeon5600系列处理器在处理器架构上进行了重大调整,从而带来最高达到77的性能提升.E5-2600相比上代5600处理器,在处
19、理器核心数、流水线长度、内存带宽等多个方面都对做出了重大提升,所以导致了性能的巨大飞跃。对于最能衡量高性能计算处理能力的spec cpu2006 fp性能,相比上一代处理器,最多高达77的性能提升。对于众多高性能计算应用,相比上代处理器,基本都超过50%以上的性能提升.通过调整流水线的长度和增加CPU核心数,相比上代处理器,linpack性能最多超过100%的性能提升。2.2.3 GPGPU计算节点系统共配置4台GPGPU节点,该GPGPU节点配置4块NVDIA C2075 GPU卡,共提供单精度峰值16TFLOPS,双精度峰值8TFLOPS。GPGPU计算是指利用图形卡来进行一般意义上的计算
20、,而不是传统意义上的图形绘制。时至今日,GPU已发展成为一种高度并行化、多线程、多核的处理器,具有杰出的计算功率和极高的存储器带宽,如图所示。CPU 和GPU的每秒浮点运算次数和存储器带宽CPU 和GPU之间浮点功能之所以存在这样的差异,原因就在于GPU专为计算密集型、高度并行化的计算而设计,上图显示的正是这种情况,因而,GPU的设计能使更多晶体管用于数据处理,而非数据缓存和流控制,如图所示.GPU中的更多晶体管用于数据处理目前,已经有非常多的高性能应用完成了在GPU系统上的移植。2.3 网络系统本方案的网络系统的设计从性能和可靠两个原则出发,采用2套网络。网络配置都考虑了扩展余量,以便系统扩
21、充.网络方案设计充分考虑到了计算节点、存储节点、网络交换机的性能参数,在保证了系统稳定的前提下,使每台设备都能得到最大限度的利用。2.3.1 千兆管理网络配置1台高端千兆交换机,配合刀片机箱的管理模块,连成千兆管理网络.该交换机1U高,48个千兆端口,实现系统中所有节点的联通。千兆管理网络用于系统管理控制、系统监控、作业的递交、作业监控管理等方面的数据通讯。2.3.2 Infiniband高速网系统配置2台36端口 Infiniband FDR交换机,共同组成56GbpsFDR全线速网络.单向56Gb的FDR Infiniband 网络相比,相比上代单向40Gb的QDR Infiniband
22、网络,性能得到了非常大的提升.这得益于三方面:1 FDR 网络传输性能的提高,传输性能从QDR 的40Gb增加到FDR的56Gb。2 FDR 网络编码效率的提升,编码效率从QDR 的 8/10 提高到 FDR 的 64/66。3 PCI-E 3.0 编码效率的提升,编码效率从 PCIE 2.0的 8/10 提高到 PCI-E 3.0的 128/130。综合起来,QDR网络由于编码效率的影响,带宽仅能达到Bandwidth(QDR)=40Gbps0.80.8/8=3.2GBps而FDR的带宽可达到Bandwidth(QDR)=56Gbps*(64/66)(128/130)/8=6.6GBps实际
23、达到一倍以上的性能提升对于网络密集型的高性能应用,FDR网络带来的性能提升也是非常明显,如下图所示的分子动力学应用NAMD,网络设备升级成FDR后,性能和扩展性都得到大幅提升。2.4 存储系统2.4.1 高性能集群存储的需求特点高性能计算集群在多个节点进行大规模并行计算的同时,需要进行大量文件及数据访问,对于系统的存储性能也提出非常高的要求,系统对存储要求主要归结为以下几点。n 全局文件的统一印象;高性能集群相比其它应用而言,一个显著的特点为保证参与计算的所有节点具有统一的文件印象,也就是说,在任何一个节点、对某一个文件的读写、修改都会在其它节点生效,实现这一个功能,往往需要通过网络文件系统来
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 性能 计算 系统 设计方案
链接地址:https://www.31ppt.com/p-3970993.html