数据中心面临制冷难题.ppt
《数据中心面临制冷难题.ppt》由会员分享,可在线阅读,更多相关《数据中心面临制冷难题.ppt(19页珍藏版)》请在三一办公上搜索。
1、数据中心面临制冷难题,服务器等IT设备在处理能力得到提高的同时,其散热量也越来越大,传统的冷热通道分开、风冷等制冷技术在给机柜内部以及整个数据中心制冷时遭遇到瓶颈,液体制冷技术开始走到了台前。最近用目前最热门的IBM BladeCenter服务器替换其旧服务器。通过这一举措ILM公司将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度现在更高了:每个机柜功率达28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能必然会透过机柜散发到数据中心,最后由数据中心的空调系统带走。,ILM公司主要进行电脑特技制作,这些机柜组成渲染农场用以对图像进行处理
2、。每个新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台。然而,一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。惠普副总裁兼关键基础设施服务部门总经理Peter Gross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系
3、统最多可以满足用电量25千瓦的机柜的制冷需求。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统所能承担的最高负荷了,从事数据中心能效研究的IBM 研究员兼首席工程师Roger Schmidt说,“ILM是在挑战30千瓦的极限,这注定是一个相当艰苦的工作。”,计算密度不宜继续增加现在的问题是:接下来会发生什么?“未来用电量如果继续增加怎么办?完全可能因为制冷问题无法解决,让我们不能再往数据中心中添加任何设备。实际上,这个问题已经开始显现出来了。”Schmidt说。Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设
4、备制造商可以通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。ILM信息技术总监凯文克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这符合当今节能环保的大趋势。,根据IDC的研究,服务器的平均价格自2004年以来已经下降了18,而CPU成本下降了70,达到715美元。但克拉克不知道如果计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的需求来考虑,是难以满足需求的。”他说。他并不是唯一关注制冷问题的人。40多年来,计算机行业按照摩尔定律规定的进程快速发
5、展,每两年计算密度增加一倍。现在一些工程师和数据中心的设计师们开始怀疑这条道路的可持续性,因为这条路似乎已走到了尽头。现在面临的困难不只是芯片制造商是否能够克服制造更精密的晶体管所面临的技术挑战,还在于现代数据中心要运行和管理如此多的高计算密度的机柜是否经济。现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。这一点值得数据中心经理注意。,IDC公司在2009年曾调查了1000家数据中心的负责人,接受调查者中21的人将电力和制冷列为数据中心当前面临的最大挑战。将近一
6、半(43)的人说这是它们运营成本增加的最主要原因,1/3的人说他们经历过因制冷问题或者电力问题导致的服务器宕机。Christian Belady是微软全球基础服务集团经验最丰富的基础设施架构师,负责设计和管理着微软最近在美国华盛顿州昆西市建立的数据中心。他说,采用高架地板形式的数据中心单位建设成本太高,微软在昆西的数据中心基础设施的建设成本占项目总成本的82。“我们必须改变过去的那种计算密度越高越好的错误观点。”Belady说,“要知道,计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍。”,格罗斯说,随着数据中心内单位面积上的计算密度增加,虽然整体机电成本变化不大,但由于功率密度增加而带
7、来的运营成本却大大增加了。IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。计算密度的增加已经让一些大型数据中心的建设项目资金突破了10亿美元大关。“很多总裁级的人听说新建数据中心要这么高的投入都吓了一跳。”施密特说。Gartner公司的分析师拉克什库玛说,从电力使用和成本的角度来说,功率密度不可能无休止地增长下去。幸运的是,大多数企业的数据中心机柜的电力消耗暂时还没有达到像ILM这样的水平。Gartner的客户中约有40其数据中心每个机柜的功率为89千瓦,而有些高达12至15千瓦,无一例外的是,功率呈明显上升趋势。,现在
8、,一些企业数据中心和一些对外提供托管服务的IDC开始对用电情况进行监测,并把它作为数据中心的依据之一,而它们在以前只是按照租用空间收费的,根本就没有考虑到底用多少电。更大胆一些的IDC则针对大客户采用根据用电量决定收费多少,由用户先提出最高要用多少电,IDC再据此给其分配相应的空间。按用电量付费而不是空间不过,指望客户不仅知道他们需要租用什么样的设备,还要了解安装了这些设备的机柜大约需要用多少电,似乎不太现实。,“对于某些客户来说,这是非常现实的,”从事服务器托管服务的Terremark公司的高级副总裁斯图尔特反驳说。事实上,Terremark采用这种方法也是响应客户的需求。“客户中有不少人找
9、到我们说,他们最多需要多少电,让我们为他们安排空间。”他说。如果客户不知道他的机柜要用多少电,Terremark也会单独给这个公司配一根总电缆,通过这个电缆为客户的机柜供电,到时用电情况也就清楚了。IBM的施密特认为,功率密度还有可能进一步增加,但数据中心的制冷方案需要改变。ILM的数据中心完成于2005年,设计供电能力为每平方英尺200瓦,从机房来说这个电力供应和制冷能力已经足够了,现在的问题是没有方法能有效地解决高密度机柜内部的制冷。,ILM公司采用了冷/热通道的设计,同时管理人员对通往冷通道的格栅板的数量和位置进行了调整,从而对流经机柜内的气流进行了优化。即便如此,为了避免机柜内的局部热
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据中心 面临 制冷 难题
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5711815.html