设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 创业者 手机 数据
当前位置: 首页 > 服务器 > 系统 > 正文

分析:数据中心的功耗管理之道

发布时间:2017-01-02 08:36 所属栏目:52 来源:告白
导读:随着计算环境越来越高密度化,电源功率管理也越来越重要。毕竟在传统数据中心的设计中,一般都是用2kW~3kW的功率为机架进行供电和冷却。 然而对于今天的高性能服务器来说,每个机架所消耗的电源功率却是相当惊人的。例如,一台1U机架设计的基于AMD Opteron或

    【专稿】随着计算环境越来越高密度化,电源功率管理也越来越重要。毕竟在传统数据中心的设计中,一般都是用2kW~3kW的功率为机架进行供电和冷却。

    然而对于今天的高性能服务器来说,每个机架所消耗的电源功率却是相当惊人的。例如,一台1U机架设计的基于AMD Opteron或Intel Xeon处理器的服务器,大约消耗300W~400W的功率;由这样的24台机器安装而成的一个机架功耗将能达到7.2kW~9.6kW。

    刀片服务器的应用更是火上加油。有数据显示,Dell PowerEdge刀片系统可以在一个42U的机柜中聚集多达60片刀片服务器(每7U空间10个刀片服务器),这样在每7U空间中就需要5066W的功耗,在一个机柜中更是达到了惊人的30.4kW。

    目前很多企业行业都在建设大型数据中心,或者将老的数据中心进行翻新,以便能够容纳高密度的刀片服务器、数据存储设备、电源和冷却设备、VoIP以及其他一些系统。以往,这些系统可能就是分布在不同的地方,电源功率的成本好像容易管理。一旦把大量的这些高密度系统集中到一个地方的时候,电源的消耗就会显著升高。

    幸运的是,针对这一让企业用户头疼的问题,目前市场上已经出现了多种解决方案,目标无外乎就是减少电源负载、使电源管理不再成为一种负担。这些解决方案包括液体冷却的回归,以及通过更优良的机架设计来减少刀片服务器的热量输出。

电源策略

    随着服务器整合的高涨,对冗余电源以及更加可靠的电源系统的需求也在增长。尤其是那些把所有的技术都装在一个篮子里、而又没有适当保护的企业,着实是在冒一个巨大的风险。一旦这个“篮子”发生问题,通常都需要花费付出巨大的代价。
  
    因此,专家建议,随着双核和多核处理器的应用以及电源功率密度的增加,冗余的电源系统是必须的。尤其是对于电源系统元件不足以继续扩展的情况,更应该考虑冗余电源系统。

    为了有效对抗不断增加的密度所带来的不利影响,也有专家建议在机房设计布局中采用分列的方法尽量靠近IT设备来分配供电。例如,在成排的机柜中部署分布式中心来提供更大的连接性。另外,也可以通过智能的机柜内电源系统来改善线缆管理,并使得在机柜中添加或去掉设备更加容易。

    用更高的电压来为计算机负载供电是另外一种可以采用的有效策略。据试验过的人介绍,随着更多的IT设备被赋予更高的电压,电源分发也会跟着提高,这就使得布线更容易,也减少了总功率以及分发过程中的效率损耗。

    不过,Gartner的专家提醒IT管理者,标准化的设备管理仍然发挥作用。例如,别忘记冷走廊/热走廊的排列方法,将服务器分散以将热点减到最少,要包含一个水蒸气的屏障来使得冷却效率最大化;另外,在空的地方装上密封板也是很重要的,这样可以防止冷空气逃窜到那里造成不必要的浪费。

上一页123下一页查看全文 内容导航
  • 第1页:电源策略
  • 第2页:液体冷却重归服务器
  • 第3页:进入水世界

(编辑:ASP站长网)

网友评论
推荐文章
    热点阅读