DOITAPP
DOIT数据智能产业媒体与服务平台
立即打开
DOITAPP
DOIT数据智能产业媒体与服务平台
立即打开

数据中心扩容指南:高性能服务器的功耗管理

    随着计算环境越来越高密度化,电源功率管理也越来越重要。毕竟在传统数据中心的设计中,一般都是用2kW~3kW的功率为机架进行供电和冷却。
  
    然而对于今天的高性能服务器来说,每个机架所消耗的电源功率却是相当惊人的。例如,一台1U机架设计的基于AMD Opteron或Intel Xeon处理器的服务器,大约消耗300W~400W的功率;由这样的24台机器安装而成的一个机架功耗将能达到7.2kW~9.6kW。
  
    刀片服务器的应用更是火上加油。有数据显示,Dell PowerEdge刀片系统可以在一个42U的机柜中聚集多达60片刀片服务器(每7U空间10个刀片服务器),这样在每7U空间中就需要5066W的功耗,在一个机柜中更是达到了惊人的30.4kW。
  
    目前很多企业行业都在建设大型数据中心,或者将老的数据中心进行翻新,以便能够容纳高密度的刀片服务器、数据存储设备、电源和冷却设备、VoIP以及其他一些系统。以往,这些系统可能就是分布在不同的地方,电源功率的成本好像容易管理。一旦把大量的这些高密度系统集中到一个地方的时候,电源的消耗就会显著升高。
  
    幸运的是,针对这一让企业用户头疼的问题,目前市场上已经出现了多种解决方案,目标无外乎就是减少电源负载、使电源管理不再成为一种负担。这些解决方案包括液体冷却的回归,以及通过更优良的机架设计来减少刀片服务器的热量输出。
  
   电源策略
  
    随着服务器整合的高涨,对冗余电源以及更加可靠的电源系统的需求也在增长。尤其是那些把所有的技术都装在一个篮子里、而又没有适当保护的企业,着实是在冒一个巨大的风险。一旦这个“篮子”发生问题,通常都需要花费付出巨大的代价。
  
    因此,专家建议,随着双核和多核处理器的应用以及电源功率密度的增加,冗余的电源系统是必须的。尤其是对于电源系统元件不足以继续扩展的情况,更应该考虑冗余电源系统。
  
    为了有效对抗不断增加的密度所带来的不利影响,也有专家建议在机房设计布局中采用分列的方法尽量靠近IT设备来分配供电。例如,在成排的机柜中部署分布式中心来提供更大的连接性。另外,也可以通过智能的机柜内电源系统来改善线缆管理,并使得在机柜中添加或去掉设备更加容易。
  
    用更高的电压来为计算机负载供电是另外一种可以采用的有效策略。据试验过的人介绍,随着更多的IT设备被赋予更高的电压,电源分发也会跟着提高,这就使得布线更容易,也减少了总功率以及分发过程中的效率损耗。
  
    不过,Gartner的专家提醒IT管理者,标准化的设备管理仍然发挥作用。例如,别忘记冷走廊/热走廊的排列方法,将服务器分散以将热点减到最少,要包含一个水蒸气的屏障来使得冷却效率最大化;另外,在空的地方装上密封板也是很重要的,这样可以防止冷空气逃窜到那里造成不必要的浪费。
  
   液体冷却重归服务器
  
    水及液体冷却剂又重新回到数据中心。这些液体直接用于冷却从服务器机架后端出来的热空气,这一种方法也可以使得空调单元更轻松一些。我们也看到,在今年诸如IBM、HP、Egenera等厂商都发布了充分利用这一技术的产品。
  
    刀片服务器厂商Egenera是与Liebert合作来改善其刀片服务器的冷却能力。Egenera称其为CoolFrame,实际上就是将Liebert XD冷却技术与其BladeFrame系统集成在一起,这可以使用户部署Egenera高端刀片服务器系统时不增加热量的输出。
  
    Liebert XD是一个无水的冷却方案,其特征是具有一个抽吸式单元或冷却器,顶部有一个管道系统连接冷却模块到IT基础架构之中。一个抽吸式单元或冷却器可以为高达八个BladeFrame系统提供160kW的液体冷却能力。这个冷却单元就直接固定在BladeFrame的后部。不过,这种系统的价格也不菲,CoolFrame为每个刀片带来了300美元到400美元的价格提升。
  
    据Egenera公司副总裁Susan Davis 介绍,Liebert XD系统为高密度环境提供了优秀的冷却;通过BladeFrame,数据中心管理者就拥有了一种高度有效和灵活的方法,来适应其数据中心冷却的需求。据他介绍,通过安装CoolFrame,能够将机柜发散到机房中的热量从20kW降低到1.5kW以下,而且不会影响每平方英尺12个处理器内核的性能;同时,它还省去了机房冷却系统中每个机柜1.5kW的风扇负荷。完整计算,这相当于23%的数据中心冷却能源成本的节省。
  
    HP推出模块化智能散热系统也是一种水冷产品,根据HP的官方数据,这种系统可以处理每个机柜30kW的热量,可使数据中心中服务器的噪音级别降低50%以上;使空气在机箱内循环,不会给数据中心带来更多的热量负荷等。
  
   IBM在其“Cool Blue”解决方案中,也采用了水冷技术,Rear Door Heat eXchanger就是服务器机房中安装在机柜背面的一个水冷门,可以对系统排出的空气进行冷却。
   据IBM介绍,这一技术使用大多数客户的数据中心中空调系统的现有冷却水水源,最多可将服务器的散热量减少55%,比传统的空调设计更高效。该技术可用于任何服务器,客户可以减轻现有空调系统的负担,最多可将能耗降低15%。散热技术的改进使客户能对每个机柜实施安装,省出宝贵的占地空间而无需购买更多的空调系统。
  
  进入水世界
  
    尽管满足日渐增长的功耗需求有很多种策略,但Gartner的分析师Bell却认为,水是其中一种必须考虑采用的技术。
  
    然而,通过网络状的管道将水输送到机柜的湿走廊,在机房中远还没有出现这样的愿景,大量的操作指南也都还没有出来,但是Bell认为数据中心最好开始超前考虑。他表示,虽然你不必给每一台服务器安装管道,但最少要确保拥有适当的管道架构,以便使得将来的水冷容易实现。
  
    对于那些准备采用水冷的人,他建议从高密度的服务器开始着手,首先要用水冷却这些高密度的系统,使它们正常工作,然后再考虑将这个技术扩展到整个基础设施。
  
    “尽管水冷目前还有些试验的味道,但一定会在未来的两到三年渗透到整个服务器冷却市场中去。”Bell说:“当水冷的效率比传统空气冷却的效率高出3500倍,它必然会成为一种更受欢迎的冷却方法。”

未经允许不得转载:DOIT » 数据中心扩容指南:高性能服务器的功耗管理