设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 创业者 手机 数据
当前位置: 首页 > 服务器 > 系统 > 正文

康楠:中国联通IDC绿色节能综合技术研讨

发布时间:2017-01-02 09:36 所属栏目:52 来源:于泽
导读:谈到数据中心不得不想到国内三大IDC之一-中国联通,9月15日,中国绿色数据中心技术大会上,中国联通系统集成公司IDC运营中心副总经理康楠就数据中心能耗模型、2010到2011年联通相关技术案例及供电节能管理协议做了详细的讲解。具体原文如下:

    【IT168 资讯】谈到数据中心不得不想到国内三大IDC之一-中国联通,9月15日,中国绿色数据中心技术大会上,中国联通系统集成公司IDC运营中心副总经理康楠就数据中心能耗模型、2010到2011年联通相关技术案例及供电节能管理协议做了详细的讲解。具体原文如下:


▲中国联通系统集成公司IDC运营中心副总经理 康楠

  我是上午最后一个发言,也到了中午吃饭时间,所以我尽快把重点的问题给各位做一个汇报。我介绍的题目是“中国联通IDC绿色节能综合技术研讨”,主要包括三个方面,第一,数据中心能耗模型和关键要素。第二,总结一下从2010年到2011年联通开展节能技术相关的案例分析。最后一部分是关于供电节能管理的一个协议。

  能耗问题是影响数据中心发展的重要因素,近年来随着电价和高功率密度IT设备能耗的持续上升,数据中心机房所需的能源成本支出问题正日益受到关注。我举一个例子,现在PU值都在2-2.5,以我们现在标配的机柜,我们的配电是16安,功率可以满足到3.2KW,机房电源的消耗分配到每个机架上需要达到6.4千瓦,一天电费开支要达到4.5万,电费是8毛钱一度。用电能耗由高到低排序,可以看到分别是IT及通信设备占到了50%,空调系统占37%,供配电占10%,其他占3%。

  从这个节能的关键要素来分析,UPS供电系统和空调系统的容量大小,设备的选型,系统的配备,以及设计方案,均取决于所选用的IT设备。IT的设备节能可以看作是数据中心节能最重要的一个基础,数据中心的空调系统能效的提高是降低PU值的关键,供配电系统的能效提高也是不可或缺的因素。

  第二部分,我要介绍的是近两年联通集团在IDC整个节能技术应用方面的案例。2010年5月,中国联通集团正式颁布执行绿色IDC技术规范,1.0版本,与此同时各分公司根据机房条件采取各种手段进行了创造性的探索,并且取得了很好的节能成效,下面我主要介绍几个案例。

  第一个是使用节电器。在IDC机房服务器配电柜断路器二次端上,UPS前端安装使用节电器。节能效果1,采用非降低方式的节电器,用电环境良好,工作电压稳定

  方案就是今天讨论最多的就是关于气流组织,主要技术手段是什么呢?送风方式的改变主要由上送风方式改成下送风,冷热通道的分区,替换原来的风冷空调。空调的调整,综合节电达到了20%以上,在新建的IDC机房中大面积采用冷冻水系统。上送风的风道对原来的热空气空调是没有引导的,出现了冷热气流的参混,我们会把冷风尽量往机柜的高度去调整。

  从气流组织来说,冷空气从地板下进入,热空气通过自然对流的方式从通风口返回,是效率比较高的方案,也是主流的空调厂商主要采用的。

  案例三是采用隔离式的交换器,又叫换热系统,主要是针对中小机房。

  案例四是空调机冷凝器自动雾化节能技术。这个技术在南方地区,水质比较好的条件下就可以使用,北方因为存在着一个水质相对偏硬,而且容易产生水垢,所以北方地区要对水质进行处理。这种技术对水的要求比较高,节能效果还是比较明显的,而且耗水量也不是很高,我们经测算,平均节能率在10-20%,而且跟空调的配置是相关的,最高的话可以达到65%的节能效果,整个耗水是90万吨。

  案例五是谐波治理。从整个技术来看,大家在空调设计方面关注比较高,实际上在电源这个系统中,应该说对传统机房改造最有效的就是谐波。其次,应用高压直流供电。技术手段采用了低压配电柜,原来都是用单纯的电容器,由于谐波的影响,出现电容器接触器开关、电缆等电气元件发热,甚至电容器损害等现象,功率因数最低只有0.69,造成电费上的损失。

  案例六是关于高密度集装箱式整体机房,这个案例下午我们湖北分公司的会进行具体的介绍。第一制冷系统的节能,采用全新的水冷常压循环的工作方式,提高散热效率。采用水平送风方式,气流均匀,散热效率高,约束气流精密送风,缩短送风距离,提高冷媒温度,空调节能设置气温低于15度压缩机不启动。

  其次绿色IT设备的节能,由于高密度机架体了段VMware距离精确送风系统,我们在服务器主板上取消了风扇,同时每个电源模块同时向2-4块主板供电,因此单台服务器较传统服务器节能15%左右,单机节能约37W。通过高密度服务器设计,2U按准空间可内置4台主机服务器,每台服务器支持两路四核。

  第三个节能措施就是供电系统的节能,市电直接转为48V直流,能效率达到了94%,传统UPS是在80%左右;无传统UPS逆变过程,降低转换节能的损耗。照明节能,传统机房照明3%,本机房照明低于1%。隔热保温材料,最大限度隔绝外部环境的影响,建筑物建造环保,90%是建造物可回收,低碳绿色。从节能效果来看,直流IT设备较传统IT设备节能约20%,全负载可达PUE1.41,达到联通绿色IDC技术规范中自优秀标准。IT设备的密度得到了极大的提高,同样是130KVA的供电能力,传统机房可以配制20台机架,防止服务器约200台,而集装箱机房可配置服务器约450台。

  最后一部分主要是供电节能的建议。我们从这么几个方面提了一些建议,从空调系统,从我们的供配电系统,我们也下了很大的功夫去采购设备,技术升级,优化。但实际上也要看到本质问题,我们建议关于服务器工作温度的提升问题,如果服务器适宜温度提高是能够从根本上解决节能问题的一种新的方式。随着芯片技术和各种制造工艺的不断进步,将来有可能将服务器温度提高至35度以上,这样的话部分机房就无需这种较高的制冷空调的要求了,而且PUE可以降得非常低,这是我们UPS厂家要去研究,我们这些IT公司也要从中去研究,能不能从根本上解决温度控制的问题。

  第二提高机房的环境温度。假设某机房内初始环境温度为21度,机房总功耗是118KW,热将机房内环境温度提升24度,一年节省电量为97.236度,节省电费也3%。若将机房环境温度提升至30度,一年节省电量为233.892度,节省电费约8%,在机房的温湿度上进行调整,每调整一度节约的电费还是相当可观的。

  建议三就是构建基础设施节能智能化管理系统。就像前面欧美厂商介绍的一样,就是能效管理平台的问题,以前我们在投入上,在整个机房设计中,考虑得不是太够,所以我们提了三点建议。

  第一,应结合动力环境集中监控系统,增加数据中心电能管理间功能,合理设置测量点,科学剂量,为机房精细化管理和节能提供数据。

  第二,宜部署机监控系统,为IT系统的维护运营和能耗控制等情况提供参考依据,实现精细化和可测量的系统能耗监控和管理。

  第三,宜建立资源调度管理平台,整合IT基础设施,建立资源综合管理系统,提供为运维人员多种类、自动化、简便服务功能。

(编辑:ASP站长网)

    网友评论
    推荐文章
      热点阅读