欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > DOCX文档下载  

    大型数据中心节能冷却系统.docx

    • 资源ID:5090730       资源大小:575.24KB        全文页数:17页
    • 资源格式: DOCX        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    大型数据中心节能冷却系统.docx

    大型数据中心节能冷却系统鹏博士数据中心事业部王克宁李安平(f81345)目前就职于微软的数据中心最有影响的专家Christian Belady在2006年提 出数据中心能源利用率(PUE)的概念。如今,PUE已发展成为一个全球性的数 据中心能耗标准。数据中心的PUE的值等于数据中心总能耗与IT设备能耗的比 值,比值越小,表示数据中心的能源利用率越高,该数据中心越符合低碳、节能 的标准。目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT 设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。据网络上收 集的相关信息,目前GDS在建的4个机房在与第三方设计单位签约时,都是按照 PUE值等于1.8的标准进行规划的。世纪互联近五年建设的水冷数据中心的PUE 值在1.5左右。鹏博士酒仙桥大型数据中心的PUE设计值不超过1.5。根据收集 相关网站信息,全球最最节能的5个数据中心分别是:.雅虎“鸡窝”式数据中心(PUE=1.08)雅虎在纽约洛克波特的数据中心,位于纽约州北部不远的尼亚加拉大瀑布, 每幢建筑看上去就像一个巨大的鸡窝,该建筑本身就是一个空气处理程序,整个 建筑是为了更好的'呼吸,有一个很大的天窗和阻尼器来控制气流。.Facebook 数据中心(PUE=1.15)Facebook的数据中心采用新的配电设计,免除了传统的数据中心不间断电 源(UPS)和配电单元(PDUs),把数据中心的UPS和电池备份功能转移到机柜,每 个服务器电力供应增加了一个12伏的电池。同时Facebook也在使用新鲜空气进 行自然冷却。.谷歌比利时数据中心(PUE=1.16)谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的 气候几乎可以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统 的要求。夏季布鲁塞尔最高气温达到66至71华氏度(19-22°C),然而谷歌数据 中心的温度超过80华氏度(27C)。惠普英国温耶德数据中心(PUE=1.16)惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却。微软都柏林数据中心(PUE=1.25)微软爱尔兰都柏林数据中心,采用创新设计的“免费冷却”系统和热通道控 制,使其PUE值远低于微软其他数据中心的1.6。从上面可以看出,降低PUE最有效的措施是采用免费自然制冷措施和替代传 统的UPS系统。对于数据中心,其能耗一 般由IT设备能源消耗、UPS转化能源消 耗、制冷系统能源消耗、照明系统和新风 系统的能源消耗以及门禁、消防、闭路电 视监控等弱电系统能源消耗五部分组成。如果需要降低PUE的值,就需要从以下四 个方面采取措施。采用转换效率高的UPS系统。目前,新一代数据中心的设计基本采用新 型的高频(IGBT技术)UPS系统,电源转换效率和功率因数都比传统的工频(可 控硅技术)UPS系统有非常大的提升,而且重量轻和体积小。由于UPS的电源转 换效率和负载率成正向关系,因此在设计和运维时要尽可能提高UPS的负载率。 目前国内电信和联通都在提倡使用高压直流UPS系统,取消了传统意义上UPS 的逆变功能,不仅电源转换效率提高3到5个百分点,而且可靠性大大提高。上 面介绍Google和Facebook干脆在数据中心取消了传统的UPS系统,把电池和服 务器的电源相结合,在正常运营时完全没有额外的能源消耗。采用高效节能的绿色制冷系统。主要是采用水冷空调和自然制冷措施, 下面做详细介绍。采用LED绿色节能光源取代或部分取代传统光源,据了解,目前在世纪 互联和鹏博士的数据中心部分机柜上已经安装LED光源。另外就是运维管理,做 到人走灯关,根据人员情况确定新风系统的运行时间和风量。弱电系统总的能源消耗很小,一般不需要过多关注。但是如果可能的话, 最好采用集中的高效直流供电系统,因为一般分布式的小型直流电源系统转换效 率低,功率因数也低。1、适合数据中心的空调系统介绍由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合 其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、小温差 和大风量。空调系统的制冷能效比(COP)是指空调器在额定工况下制冷运行时,制冷 量与有效输入功率之比。该数值的大小反映出不同空调产品的节能情况。空调系 统的制冷能效比数值越大,表明该产品使用时产生相同制冷量时所需要消耗的电 功率就越小,则在单位时间内,该空调产品的耗电量也就相对越少。新的强制性国家标准房间空气调节器能效限定值及能效等级 (GB12012.3-2010)由国家质检总局、国家标准委于2010年2月26日发布,从 6月1日起将在全国范围内实施。此标准规定14000W制冷量以下民用空调器能 效等级指标以及试验方法、检验规则、房间空调器产品新的能效限定值、节能评 价值等。国家强制性房间空调器能效等级标准类型额定制冷量(CC)能效等级123整体式3.303.102.90分体式CCM4500W3.603.403.204500W<CCM7100W3.503.303.107100W<CCM14000W3.403.203.00针对空调系统制的冷能效比,需要特别说明以下两点:厂家给出的空调系统制冷能效比是在额定的工况条件下测试的,实际工 况一般都要比额定工况差很多(包括负载和环境),因此空调系统的实际运行的 能效比都要比厂家给出的低很多。针对数据中心的空调系统尤其特殊,一是全年不间断运行,工况差别非 常的大;二是温度湿度控制精度高,除湿、加湿、加热、小温差大风量等比一般 民用空调系统消耗的附加能量更多。1.1风冷精密空调这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW 之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工 作原理图。风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比 相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空 调在大型数据中心中使用存在以下不足:安装困难。大量的室外冷凝器安装需要非常大的场地,铜管过长不仅影 响制冷效率,成本高,安装难度大,而且影响建筑物外观。室外冷凝器的安装位 置受空间限制,极可能出现热岛效应,大大降低制冷效率。在夏天室外温度很高时,制冷能力严重下降甚至保护停机。目前国内的 数据中心一般采用对室外冷凝器喷水雾或增加凉棚来改善其在夏天的制冷效果。 因此数据中心在设计时不能按其额定的制冷量计算,需要留有足够的冗余。对于传统多层电信机房,一般把室外冷凝器安装在每层的四周,下层冷 凝器的热量将不断向上散发,上层的冷凝器效率将大大降低,热量散不出去,形 成严重的热岛效应。据了解,北方某联通数据中心因为热岛效应夏天机房的温度 高达35°C以上,大约10%的服务器停机,用户只好运来冰块降温。精密空调内部风机盘管的工作温度大大低于露点温度,大量产生冷凝水, 为了维持数据中心的湿度,需要启动加湿功能。除湿和加湿都要消耗大量的能源。 为了加湿,需要将自来水进行软化,即便如此,还需要经常清洗加湿罐中的水垢。1.2离心式水冷空调系统这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统 的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作 原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体 的压力,而是依靠动能的变化来提高气体压力。离心式压缩机具有带叶片的工作 轮,当工作轮转动时,叶片就带动气体运动或者使气体得到动能,然后使部分动 能转化为压力能从而提高气体的压力。这种压缩机由于它工作时不断地将制冷剂 蒸汽吸入,又不断地沿半径方向被甩出去,所以称这种型式的压缩机为离心式压 缩机。压缩机工作时制冷剂蒸汽由吸汽口轴向进入吸汽室,并在吸汽室的导流作 用引导由蒸发器(或中间冷却器)来的制冷剂蒸汽均匀地进入高速旋转的工作轮 (工作轮也称叶轮,它是离心式制冷压缩机的重要部件,因为只有通过工作轮才 能将能量传给气体)。气体在叶片作用下,一边跟着工作轮作高速旋转,一边由 于受离心力的作用,在叶片槽道中作扩压流动,从而使气体的压力和速度都得到 提高。由工作轮出来的气体再进入截面积逐渐扩大的扩压器(因为气体从工作轮 流出时具有较高的流速,扩压器便把动能部分地转化为压力能,从而提高气体的 压力)。气体流过扩压器时速度减小,而压力则进一步提高。经扩压器后气体汇 集到蜗壳中,再经排气口引导至中间冷却器或冷凝器中。水冷冷冻机组的工作原理如下:冷冻水侧:一般冷冻水回水温度为12°C,进入冷冻器与冷媒做热交换 后,出水温度为7C。冷冻水一般通过风机盘管、组合式空调机组或水冷精密 空调机向IT设备提供冷气。由于数据中心的制冷量大,要求温差小风量大且湿 度需要控制,一般采用水冷精密空调机。冷却水侧:一般冷却水进水温度为30C,进入冷凝器与冷媒做热交换 后,出水温度为35C。冷却水一般使用蒸发式冷却塔通过水蒸发来散热降温。冷媒侧:冷媒以低温低压过热状态进入压缩机,经压缩后成为高温高 压过热状态冷媒。高温高压过热状态冷媒进入冷凝器后,将热传给冷却水而凝 结成高压中温液态冷媒。高压中温液态冷媒经膨胀装置,成为低压低温液气混合 状态冷媒。低温低压液气混合状态冷媒进入蒸发器后,与冷冻水进行热交换, 冷冻水在此处被冷却,而冷媒则因吸收热量而蒸发,之后以低温低压过热蒸气状 态进入压缩机。离心式制冷压缩机与活塞式制冷压缩机相比较,具有下列优点:单机制冷量大(350到35000KW之间),在制冷量相同时它的体积小,占 地面积少,重量较活塞式轻58倍。由于它没有汽阀活塞环等易损部件,又没有曲柄连杆机构,因而工作可 靠、运转平稳、噪音小、操作简单、维护费用低。工作轮和机壳之间没有摩擦,无需润滑。故制冷剂蒸汽与润滑油不接触, 从而提高了蒸发器和冷凝器的传热性能。能经济方便的调节制冷量且调节的范围较大。由于热量是通过水的蒸发 (在冷却塔中)来散发的,因此夏天室外的高温对其冷却能力影响很小。离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不 能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺 杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。离心式冷冻机组,一般为N+1配置,有一台备机,安装在冷站机房。冷却塔,安装在室外,一般一台冷冻机组对应一组冷却塔(便于维修和 保证备机系统正常待机)。冷却水通过冷却塔来降温,由于水在大气中蒸发,因此要设计安装水处理系统来除垢、除沙尘、除钠镁离子和病菌等,否则将大大降 低制冷效率。另外,由于数据中心是全年连续运行,还要设计冬季防结冰措施。环形冷冻水管道。由于数据中心需要连续运行,因此冷冻水的进水和回 水管道都要设计成环路,大型数据中心可能设计成二级或三级环路,这样在局部 冷冻水管道或阀门发生故障时可以关闭相邻的阀门进行在线维护和维修。为了便 于日后的维护、维修、更换和扩展,需要安装设计相当多的阀门。为了防止漏水 和提高使用寿命,需要选择优质的阀门,有些工程使用优质无缝钢管,甚至不锈 钢管。冷冻水管和冷却水管不允许经过机房区域。在水管经过的区域需要设置下 水道和漏水报警设备。为了节能和防止冷凝水,冷冻水管和冷却水管都要采取严 格的保温措施。典型的冷冻水循环管道回路如下图所示。与瞬机鲜房赧 的瓦余供杯路与由楠鲜房觥 的瓦余际回路修,推荐设置物理上独立的空调设备间,四周做拦水坝,地面做防水处理和设置快巩日留粟官co 0水冷精密空调机。其实就是一个温差小风量大的大型风机盘管,一般推 荐采用地板下送风和天花板上回风。为了保证IT 遮的绝对安全和便于设备检 排水管道,安装漏水报警设备。推荐采用N+1或N+2的冗余配置方案。水泵。冷冻水和冷却水的循环都是通过水泵进行的。水泵的节能除采用 变频装置外,应采用较大直径的管道、尽量减少管道长度和弯头、采用大半径弯 头、减少换热器的压降等。冷冻机房、水泵、冷却塔、板式换热器和精密空调尽 量设计安装在相近的高度以减少水泵扬程。由于大型数据中心的水冷空调系统的电力负荷很大,一般需要为水冷空调系 统设计独立的配电室。由上述可以看出,水冷空调系统比较复杂,成本也比较高,维护也有难度, 但是能满足大型数据中心的冷却和节能要求。2、免费冷却技术和数据中心选址免费冷却(Free Colling)技术指全部或部分使用自然界的免费冷源进行制 冷从而减少压缩机或冷冻机消耗的能量。常见的免费能源有:中北部地区的冬季甚至春秋季,室外空气中储存大量冷量部分海域、河流、地下水水温较低,储存大量冷量部分地区的自来水中也储存了大量冷量压缩燃气在汽化过程中产生大量冷量目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话, 数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地 区都是非常适合采用免费制冷技术。数据中心在环境温度较低的季节,将室外空气经过过滤后直接送入机房作为 冷源,也能节省大量能源,称为风冷自然冷却。这种自然冷却方式原理比较简单, 成本也比较低,但存在以下不足之处:要保证空气的洁净度不是一件容易的事。虽然可以通过高质量的过滤网保 证空气的洁净度,但由于风量特别大,需要经常清洗更换,同时巨大的阻 力也要消耗相当的能源。湿度不好控制。加湿和除湿都是相当的消耗能源。如果采用简单的工业加 湿设备,需要对加湿的水源进行高度净化(成本比较高),简单的软化水 不能满足要求(对设备有害,长时间会在设备内部形成一层白色物质)。温度过低,容易结露并除湿。因此需要进行细致严格的保温处理。对于大型数据中心,由于距离远,风量特别大,这样就需要很大的风道, 风机的电能消耗也非常的大。实际的设计和安装也是很困难的事。不可能实现全年自然冷却,夏季的制冷方式还需要安装单独的空调设备。因此,在大型数据中心中对自然环境要求较高,因此不推荐使用风冷自然冷 却方式。采用水冷空调系统,当室外环境温度较低时,可以关闭制冷机组,采用板式 换热器进行换热,称为水冷自然冷却。这样减少了开启冷机的时间,减少大量能 源消耗。湿球温度在4°C以下时可以满足完全自然冷却,在湿球温度4到10°C之 间可是实现部分自然冷却。在北京,一年内平均有5个月左右可以实现完全自然 冷却,有2个月左右可以实现部分自然冷却。节能效果将是非常明显的。上述介绍的水冷自然冷却由于只需要增加一台不需要动力的板式换热器,投 资和占地都比较少,是我们推荐的大型数据中心最佳免费制冷节能方案,系统的 原理图如下。上述带自然冷却水冷空调系统中具有以下三种工作方式:夏天完全靠冷冻机制冷,通过阀门控制使得板式换热器不工作。冬天完全自然冷却,冷冻机关闭,通过阀门控制冷冻水和冷却水只通过板 式换热器。春秋季节部分自然冷却。这时冷却水和冷冻水要首先经过板式换热器,然 后再经过冷冻机组,阻力要大一些,水泵的扬程在设计时相应要大一些。由于天气在不断的变化,上述三种工作方式也将不断进行转化。为了减轻运 维人员的工作和精确控制,所有阀门建议采用电动阀,在空调系统管道若干位置 加装可以自动采集数据的温度计、流量计和压力表等,通过一套自动化控制系统 全年按最佳参数自动运行。对于大型数据中心,由于制冷量特别的大,同时考虑到降低N+1备机的成本, 一般采用2+1、3+1或4+1系统,为了便于检修和提高整个系统的可靠性,推荐 蒸发式冷却塔、水泵、板式换热器和冷冻机组一对一配置。3、采用变频电机节约能源我们知道,空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷 能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设 计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但 不散热,反而吸热。)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。 另外,大型数据中心的IT负荷从零到满载也需要相当的时间,一般也在一到三 年之间。还有,IT负载的能耗和网络访问量或运行状态相关,根据其应用的特 点,每天24小时的能耗都在变化,一年365天的能耗也都在变化。比如,游戏 服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重 大事件时的负载和能耗就比较高。因此,我们强烈建议在水冷空调系统中所有电机采用变频系统,这样可以节 约大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负 荷情况下)。要注意的是在选用变频器时,要求谐波系数一般小于5%,不然将对 电网造成不良影响。对于风机和水泵,输入功率和这些设备的转速的三次方成正 比。例如,如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100% 额定转速时理论功率的12.5%。因此,当设备运行在部分负荷时,变速装置的节 能潜力十分明显。变频冷水机组,冷水机组采用变频电机并作相应的特殊设计,节能效果非 常明显。根据YORK公司提供的文件,其变频冷水机组不仅能大大降低喘 震,而且重启时间从一般的3到5分钟减少到25至50秒之间。下表是 YORK公司提供的一台制冷量1000冷吨的变频冷水机组相对常规定频机组 不同负荷的节能效果,负荷越低,节能效果越明显。负荷百分比定频机组COP变频机组变频机组节能效100%5.9595.850-1.83%90%6.4586.7043.81%80%6.8777.70612.05%70%7.2188.88523.10%60%7.53410.34137.26%50%7.77912.12455.86%40%7.40211.72058.34%30%6.35410.76369.39%20%5.4098.90164.56%15%4.8078.01166.65%即便是数据中心处于满负荷状态,但由于数据中心的冷水机组需要常年运 行,而室外的气温不断变化,对应冷却塔的供水温度也在不断变化,压缩 机的工作压头也随之变化,在这种情况下,采用变频驱动的离心机组能够 不断的根据压头的变化调节转速,达到节能效果。下表为机组在室内负荷 恒定,机组100%满负荷运行状态下,定频机组与变频机组的节能比较。冷却水温度定频机组COP变频机组变频机组节能效325.965.851-1.83%316.0536.0530.00%306.2246.2680.71%296.4056.4881.30%286.5856.7242.11%276.756.9643.17%266.9367.2063.89%257.1047.4354.66%247.2267.6956.49%237.4357.9567.01%227.6128.1787.44%217.788.4949.18%207.9388.79210.76%198.1039.08712.14%188.2749.42813.95%178.4339.74115.51%168.57710.04817.15%158.74810.34318.23%148.90310.62419.33%139.06410.95520.86%129.20611.30822.83%变频冷却塔。冷却塔采用变频电机可以在部分负荷和满负荷的不同气象条 件下实现节能效果。一般冷却塔的变频电机根据冷却水的温差进行控制, 温差一般为5度,若高于5度,将降低频率减少冷量来降低温差,若低于 5度,将增加频率加大风量来提高温差。另外,冷却水的温度越低,冷水 机组的效率就越高。根据YORK公司在网络上公布的材料,冷却水温度每 提高一度,冷水机组的效率就要下降4%左右。因此,在进行冷却塔的变 频控制时还要考虑这个因素。变频水泵。冷却水和冷冻水的水泵由于常年运转,耗能相当的惊人。变频 水泵可以在部分负荷时降低水的流速来节能。一般变频水泵的变频电机根 据冷却水或冷冻水的温差进行控制,温差一般为5度,若高于5度,将降 低频率减少流量来降低温差,若低于5度,将增加频率加大流量来提高温 差。为了降低水泵的扬程和能耗,建议冷冻机房、冷却塔和机房的垂直距 离越小越好。水冷精密空调采用调速(EC)风机。调速风机一般根据回风温度控制风机 的功率,若回风温度较低,就降低调速风机的功率减少风量,若回风温度 较高,就提高调速风机的功率增加风量。根据艾默生公司提供的材料,采 用下沉方式安装调速风机还可以进一步节省能耗,对于能够提供16400CFM (每分钟立方英尺)风量的精密空调设计安装三台风机,采用普通风机、 普通EC风机和下沉式EC风机分别对应的风机功率为8.6KW、6.9KW和 5.5KW。4、提高冷冻水的温度节省能源冷水机组标准的冷冻水温度为7到12°C,水冷空调的标准工况也是认为冷 冻水温度为7到12C。但是这个温度范围对于数据中心来说有点低,带来以下 两个不利因素:这个温度大大低于数据中心正常运行在40%左右相对湿度的露点温度,将 在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿 度。这个除湿和加湿过程都是非常消耗能量的过程。冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越 高,冷水机组的效率也就越高。根据YORK公司在网络上公布的材料,冷 冻水温度每提高一度,冷水机组的效率就可以提高大约3%。目前,在集装箱数据中心和高功率密度的冷水背板制冷技术中都把冷冻水的 温度设计为12到18°C,已经高于露点温度,完全不会除湿,也就不需要加湿。 冷冻水的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂 家提供的电脑选型软件来确定,一般会下降10%到15%。但是由于冷冻水温度提 高后很少或基本不除湿和加湿,加上采用EC调速风机,电机产生的热量减少, 整个水冷精密空调的实际制冷能力(显冷)下降并不多。5、选择节能冷却塔设备冷却塔本身的结构和体积决定着消耗能量的多少。对于一般的高层写字楼, 由于安装冷却塔的位置有限,一般选择体积小的冷却塔,为了达到规定的散热量, 只能加大风机的功率,靠强排风来加大蒸发量。如果安装场地允许,请选择体积较大的冷却塔来节能能耗。根据某公司的冷 却塔招标信息,相同的制冷量,益美高推荐的产品电机功率为55KW (体积比较 大),马利推荐产品的电机功率为120KW,BAC推荐产品的电机功率为90KW。可 以明显看出,大体积的冷却塔明显比小体积的冷却塔节能。在制冷能力等条件相 同的情况下,尽量选择风机功率小的冷却塔。依据风机轴功率与转速的三次方成正比,对多台冷却塔采用变频装置运行可 能比单台冷却塔风机全速运行效率更高。对于风机选型,螺旋桨式风机一般比离 心式风机的单位能耗低。6、封闭冷通道节约能源经过多年的实践和理论证明,数据中心最佳的风流组织是地板下送风,天花 板上回风,精密空调设置单独的设备间,机柜面对面摆放冷热通道隔离并实现冷 通道封闭(防止冷气短路),示意图如下。国内电信运营商早期的数据中心多采用风道上送风方式,缺点是风道前后的 风速差别很大,很难控制每个出风口的风量均匀。虽然每个风口具有调节阀可以 调节风量的大小,但是最大风量无法调整,在高空调节不方便,一般运维都做不到及时调整。前几年,国外的一些项目采用热通道封闭技术,一般是在机柜后门安装通道 天花板的热通道,取得了比较好的节能效果,示意图如下。热通道封闭相比冷通道封闭设备成本相对比较高,运行费用也比较高,因为 一般在机柜后门安装有风机,需要消耗能源。另外,热通道封闭要做到完全不漏 风也是比较困难的,一旦漏风将造成大量冷空气短路。因此,目前冷通道封闭成 为最佳推荐方案,APC和日本日东公司都有完整的解决方案,国内的机柜加工企 业也可以生产相应的产品。冷通道封闭要求做到以下四点:地板安装必须不漏风。只有在冷通道内才能根据负荷大小替换相应的通风 地板。通风地板的通风率越大越好,建议采用高通风率地板。不建议使用 可调节的通风地板,一是阻力大,二是运维一般做不到这么精细的管理。冷通道前后和上面要求完全封闭,不能漏风。建议采用能自动关闭的简易 推拉门,在门上建议安装观察玻璃。目前很多冷通道上部的封闭板采用透 明板,因为透明板长时间后上面会形成一层灰尘,定期清洗工作量特别大。 建议冷通道上部的封闭板采用不透光的金属板,机柜前面安装LED节能灯 解决冷通道照明问题。机柜前部的冷通道必须封闭,没有安装设备的地方必须安装盲板,建议使 用免工具盲板。机柜两侧的设计不能漏风。机柜如果有前后门,建议使用 直径超过8mm的六角形孔,通风率不低于70%,风阻要小。如果管理上没 有要求,建立机柜尽可能不安装前后门。地板下电缆、各种管道和墙的开口处要求严格封闭,不能漏风。地板上的 开口或开孔也都要严格封闭,不能漏风。地板下除消防管道外,建议尽可能不要安装任何电缆、线槽或管道等,这些干扰物会强烈干扰地板下空间的送风气流分布,增加风阻,使不同机柜中设备的 冷却性能不均匀。每个机柜的功率密度低于3KW时建议地板的高度为600mm,功 率密度在3到5KW之间地板高度建议800mm,功率密度大于5KW时建议地板高度 为 1000mm。由于防静电地板的尺寸为600mmX600mm,因此对于单个机柜功率密度小于 5KW时的最佳布局是7块地板摆两排机柜,设备对其冷通道,示意图如下。对于高密度机柜,可以根据功率密度和通风地板的通风率决定8块或9块地 板摆放两排机柜,示意图如下。标准机柜的宽度为600mm,刚好对应一块地板。服务器机柜的长度一般为 1000mm到1100mm之间,相应的热通道宽度为1000mm到800mm之间。为了不使 热通道过窄,我们建议机柜的前门及前门框为外挂式,后门为内嵌式,这样前门 框和前门的厚度就安装到冷通道内(机柜本身的深度一般1000mm就能满足需 要),热通道的宽度相应的不至于过窄,示意图如下。采用冷通道封闭技术后,整个机房除冷通道外都属于高温区,温度将在30 到40°C之间。一年内绝大部分时间的室外空气温度低于机房的热通道温度,因 此机房外墙建议不进行保温处理。7、提高机房温度节约能源根据中华人民共和国国家标准GB 50174-2008电子信息系统机房设计规 范,A类和B类机房的主机房温度要求保持在23±1C,也就是22到24Co ANSI/TIA-942-2005 Telecommunications Infrastructure Standard for Data Centers中规定冷通道温度为华氏68-77度,也就是20到25C。美国采暖制冷与 空调工程师学会(ASHRAE) 2008年新的机房冷通道温度已经从2004年的20到25C 提高到18 到27 Co由于国家标准中规定的主机房温度没有指定是机柜前的进风温度,传统机房 存在以下两方面不足:由于没有冷通道或热通道封闭,机房温度特别的低,设备内部的温度并不 低,大量的冷气短路自循环。机房温度往往低于24C,处于过度制冷状态。现代服务器和网络设备等并非传统观念(10年或20年前)中认为的那么娇贵, 大部分服务器在温度10-35C,相对湿度20%-80%都可以正常运行(ASHRAE认为的 设备环境要求,也是绝大部分商用服务器的工作环境要求范围)。因此可以提高 空调送风温度,保证IT设备的运行温度即可。当空调系统的送风和回风温度提高 1C时,空调系统节电约2.5%。同时空调系统的制冷能力提高约5%。因此,在用户认可的条件下,提高机房的温度是节约能源的措施之一。建议 数据中心冷通道的温度(ASHRAE标准要求在冷通道中间对准机柜中间1.5米高度 测量,每4个机柜至少一个测试点)最低为为24或25C.8、科学运维节约能源大型数据中心通过科学运维可以大大提高空调系统的节能效率。常用的科学 运维措施包括以下方面。人走关灯和关闭大屏幕显示器,减少照明产生的能耗以及相应增加的制冷 量。尽量减少运行新风系统。在机房无人时关闭相应区域的新风系统。建议冷通道的温度不低于25C。定期检查冷通道的温度以免过度制冷造 成能源浪费。定期检查地板,防止各种方式的漏风。冷通道必须完全封闭,机柜上没有设备的区域必须安装盲板,没有负荷的 机柜区域不能安装通风地板。每次设备变更,都要进行检查。在能够满足制冷的条件下尽可能提高冷冻水的温度,最高为12到18°C。在气象环境满足的条件下,尽量使用全自然或半自然免费制冷。定期核对数字采集数据和模拟显示仪表的数据是否一致,若发现数据存在 误差,立即更换有关采集设备或仪表。对于还没有使用的独立机房区域,关闭所有机电设备,包括冷冻水管道的 阀门。定期检修和清洗冷冻机组内的铜管和冷却塔,确保其工作在最佳状态。对于低负荷的机房,如果精密空调没有EC风机,就要关闭相应的空调, 如果是EC风机,要通过实践摸索出更节能空调运行方式。根据相关数据中心的运行数据以及采取上述各种节能措施,在北京建设大型 节能数据中心的PUE值是可以达到1.3左右的,其中科学运维是及其重要的。我 们建议将绿色数据中心分成以下5个等级。等级简称PUE值范围1级淡绿1.8>PUEN1.72级浅绿1.7>PUEN1.63级草绿1.6>PUEN1.54级碧绿1.5>PUEN1.45级深绿PUEV1.4

    注意事项

    本文(大型数据中心节能冷却系统.docx)为本站会员(小飞机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开