数据中心空调系统
1.数据中心空调设计参数
根据《电子信息系统机房设计规范 》GB50174-2008将电子信息机房划分为A/B/C三级。规范对主机房开机温湿度要求见下表:
2.数据中心空调负荷
机房空调系统负荷应包括以下内容:
1) 机房内设备的散热;
2) 建筑围护结构的传热
3) 通过外窗进入的太阳辐射热
4) 人体散热
5) 照明装置散热
6) 新风负荷
7) 伴随各种散湿过程产生的潜热
其中湿负荷包括人体散湿和新风湿负荷;
数据中心空调系统有别于常规舒适性空调系统,该类设施空调系统的负荷特点是显热负荷密度大、显热比高。
从能源消耗的统计情况来看,数据中心的能耗最多的是IT 设备和空调的耗电量。IT 设备的耗电量会100%转化为显热负荷。
如果对数据中心采用传统功率密度值(0.4-0.8kW /m2),则会导致无法可靠地安装新一代的 IT 设备。但如果对数据中心采用新一代高密度IT 设备(1.5–2.0kW /m2),则会导致数据中心的供电和制冷效果受到严峻挑战,此外还会导致极高的成本和较低的用电效率。
设计指导:
在机房初始设计阶段,为了较快的选定空调机的容量,可采用此方法,即以单位面积所需冷量进行估算。
计算机房(包括程控交换机房):
楼层较高时,250~300kcal/m2h
楼层较低时,150~250kcal/m2h(根据设备的密度作适当的增减)
办公室(值班室):90kcal/m2h; A .银行系统解决方案
数据设备、机房的建筑热量没有确定下来之前,可以按照估计方法进行机房空调制冷量的预估,一般为:300w ~500w/m2 ,部分高容量机房达到600w/m2;
B .电信系统信息中心
1.中小交换局信息中心机房精密空调解决方案
中小型交换局及基站通常为县级城市综合局、长途传输二级干线站或相当的通信局(站)、基站等,考虑到中小型信息中心交换局机房的交换机数量及交换机使用的频率,推荐机房空调配置制冷量的方案为700W/m2。考虑到机房的重要性机房精密空调靠冗余配置来保障,一般配置为N+2备份。
2.大型信息中心交换局机房精密空调解决方案
大型交换局通常为省会、地市级城市和大区中心通信综合枢纽(含国际局)、市话汇接局、电报(数据)局、无线局、长途传输一级干线站、市话端局以及特别规定的其它通信局(站),在通信网络中地位最重要,职能也最完整,因此对动力机房的精密空调的配置要求也是最高的,考虑到大型信息中心交换局机房的交换机数量及交换机使用的频率,推荐机房空调配置制冷量的方案为1000W/m2。考虑到机房的重要性机房精密空调靠冗余配置来保障,一般配置为N+N备份。
3.电信终端交换局信息中心机房精密空调解决方案
电信终端交换局机房一般为乡镇等机房,传输、接入网类局站通常规模较小、重要程度也较前两类低,对于此类局站,由于功能单一、规模小,通信和动力设备一般都置于同一房间,其动力配置在网络能源一体化的解决方案中是规模最小、配置最简单的一种,机房的面积小冷量需要较小,推荐机房空调配置制冷量的方案为500W/m2。机房精密空调冗余配置来保障,一般配置为N+1备份,或者备份用制冷系统保障。
C .电力系统解决方案
电厂主要是控制信息中心的机房的解决方案,电厂主要是以中型机房为主一般在200-500m2左右,以控制的服务器和控制电脑为主。对于电厂重要的控制中心一般采用N +2备份机。与电信的中小型机房的要求一致。对于电力系统的电力变电和输送控制中心,一般也为分为监控中心和信息中心,与电力收费等信息中心。一般采取N +2备份机。等同与证券等机房的要求。
3.数据中心空调气流组织
数据中心机柜和机架的布置宜排列放置,面对面形成热风通道,背对背布置形成冷风通道,电力电缆敷设在架空地板下,数据线缆敷设在机柜上方,这样一方面可以使电力电缆和数据线缆保持安全距离,另一方面又可以使电力电缆产生的热量被稀释。
气流方式采用下送上回的方式,地板送风(400-600防静电地板) ,地面风口使用高通孔率风口,根据风量和风速确定位置和数量;
拟将地板下空间用做空调系统送风静压箱;为节约能源并取得好的制冷效果,采用吊顶方式,内做回风静压箱,为 满足均匀回风要求,同时安装手动或电动调节阀,以调校送回风效果;连接空调回风口和吊顶内空间,直接从回风静压箱回风,提高回风质量;
按照机柜前送后排的方式,规划出冷通道和热通道;设备面对面距离1.2米,背对背距离1.2米; 以下为机房机柜排列及冷热通道分布图。
在专用机房空调系统中,专用空调机组设置在数据通信机房的周边,数据通信机架或机柜按进出风方向成组排列
专用空调机组将机房内的热风从机组顶部吸入,经过滤,冷、热处理后送入地板静压
箱内。冷空气通过设置在冷通道处的地板送风散流器进入机房。
进入机架或机柜的空气吸取数据通信设备散发的热量后排至热通道。在热通道内热空气上升。沿着机房顶板回到机房专用空调机组。
气流速度:
计算机房一般净高在2.5m ~3m 之间,工作区气流速度控制在0.2~0.3m /s ,建议各类送风口的送风速度按下列数值选取:
上送下回百叶侧风口流速 2~3m /s ;散流器喉部流速 2~4m /s ;
孔板孔口流速 2~4m /s ; 向孔板上静压箱内送风口流速 4~5m /s ;
活动地板向室内送风的可调风口流速 2~5m /s ;
回风口流速、在房间下部可取 l ~2m /s , 在房间顶部可取3~4m /s 。
算例:
圆形风管单位长度摩擦压力损失计算公式为: Pa/m
管件(如三通、变头等)的局部压力损失计算公式为: Pa
①送风支管及送风水平延长管沿程损失
查《简明通风设计手册》圆形风管沿程摩擦压力损失线算图,得出直径200mm ,设计流速为7m/s的压力损失为:3.3Pa ×1.5m =5Pa
②铝箔升缩软管沿程损失
查《简明通风设计手册》铝箔伸缩软管摩擦压力损失线算图,得出直径200mm ,设计流速为7/s的压力损失为:5.8Pa ×1.2m =6.96Pa
③90度弯头局部压力损失
将有关数值代入上述公式得:6.9Pa
④静压箱分支管局部压力损失
将有关数值代入上述公式得:46Pa
总压力损失为Z 总=5+6.96+6.9+46=65Pa
算例:
对每个设备机柜的控制工艺设计如下:
温湿度的控制 :
我们采用送风控制模式,保证每个设备机柜的送风温湿度,按照TC9.9的建议,我
们设定变风量送风器的出风温度(即送风温度)为20℃(干球温度),相对湿度为60%,每1KW 设备的送风量为200m3/h。
机柜的排风温度计算:
查焓湿图,可以得到其含湿量d=8.83g/kg,焓h =42.62 Kj/kg。
因为计算机房的潜热量小,设备的冷却过程可看作是等湿加热过程,每200m3/h,通过计算,可得到其出风焓值h =57.74KJ/kg。
查焓湿图,含湿量量d=8.83g/Kg,焓值h =57.74Kj/Kg时的温度为:34.74℃。 目前实际机柜的风量可调节在70%左右。另外我们可以通过变风量自动控制系统,大大减少送风量的过剩。
4.数据中心空调系统形式
A .冷源
在小型数据中心中(100个机柜以下或1000平米以下)通常采用风冷的机房空调;在中大型的数据中心推荐采用中央冷机的精密空调系统;水冷机在过渡季考虑用冷却塔直接供冷(室外空气焓值低于室内空气焓值时切换);
参考:
银行数据中心一般为区域性的大型数据处理及保存中心,在银行信息中地位最重要,职能也最完整,考虑到大型信息中心机房的主机处理数量及交换机使用的频率推荐机房空调配置制冷量的方案为800W/m2。考虑到机房的重要性机房精密空调靠冗余配置来保障,一般配置为N+N备份。
B .新风量
主机房要求维持10Pa 正压,其他房间、走廊压差不宜小于5Pa ,按照此要求计算新风量; 新风量取人员卫生所需新风量40立方米每小时和维持室内正压所需风量的较大值;
C .室内设备
精密空调处理机需包含初、高效两级过滤,确保机房含尘量符合规范要求;新风处理机要引入一定量的室内回风,以保证送入室内的空气高于室内空气的露点温度;. 新风机组考虑独立加湿(湿膜蒸发式加湿);考虑相应的机械排风,排风可兼顾消防排烟;
精密空调的处理风量应该考虑在过渡季新风供冷模式时,风量较大的情况;
5.数据中心空调系统其他注意事项
1)很多单位规划空调系统容量只注意了冷负荷,却忽视了规划风量;
2)冷凝器问题极易被忽略,尽量选择双回路、风扇转速可调的冷凝器,
室外机冷凝温度不要小于43℃,最好能达到45℃。
3)加湿开始运行效果很好,但很快发现开机后必须每周对电极式蒸汽加湿罐进行除
垢。后通过与厂商协商,通过加装软化水装置的方法解决
4)空调通风系统的变频对于数据中心是污染电源!! ,需有单独回路供空调用电;
6.数据中心绿色评价方法
绿色网格组织(Green Grid)于2007年2月制定的数据中心能效比指标,PUE (Power Usage Effectiveness )和DCiE (Data Center Infrastructure Efficinecy)是目前较有影响力的数据中心能效模型。
PUE 为数据中心总能耗(Total Facility Power)与IT 设备总能耗(IT Equipment Power)的比值;
DCiE 则为PUE 的倒数,即IT 设备总能耗在数据中心总能耗中所占比重。
这一能效模型的基本思路,是将数据中心总能耗分为分为IT 设备总能耗和基础设施(Infrastructure )总能耗两部分,当空调的用电量在主机房总用电量中所占比例较低时,数据中心PUE 也较低,较为节能;反之,则数据中心PUE 较高,能耗较大。
一般而言,一个设计、运营、维护得比较好,节能效果比较理想的数据中心主机房,其PUE 应在1.6左右,而不宜超过2.0。
7.数据中心空调的疑问
1. 在考虑机房内设备未来增加以及可靠性的情况下,冷负荷的冗余设计是怎样的?N+1,N+2;N+N;还是根据数据中心的主要级别?
2. 对于防静电地板下不允许走任何管线是否能实现,应该有机柜的动力线和网线上线分层布置(比如动力线布置与地板下)的情况?
3. 是将地板送风口布置与冷通道上还是布置于柜机的正下方?哪种方式更科学;
4. 机房的排风/排烟是
数据中心空调系统
1.数据中心空调设计参数
根据《电子信息系统机房设计规范 》GB50174-2008将电子信息机房划分为A/B/C三级。规范对主机房开机温湿度要求见下表:
2.数据中心空调负荷
机房空调系统负荷应包括以下内容:
1) 机房内设备的散热;
2) 建筑围护结构的传热
3) 通过外窗进入的太阳辐射热
4) 人体散热
5) 照明装置散热
6) 新风负荷
7) 伴随各种散湿过程产生的潜热
其中湿负荷包括人体散湿和新风湿负荷;
数据中心空调系统有别于常规舒适性空调系统,该类设施空调系统的负荷特点是显热负荷密度大、显热比高。
从能源消耗的统计情况来看,数据中心的能耗最多的是IT 设备和空调的耗电量。IT 设备的耗电量会100%转化为显热负荷。
如果对数据中心采用传统功率密度值(0.4-0.8kW /m2),则会导致无法可靠地安装新一代的 IT 设备。但如果对数据中心采用新一代高密度IT 设备(1.5–2.0kW /m2),则会导致数据中心的供电和制冷效果受到严峻挑战,此外还会导致极高的成本和较低的用电效率。
设计指导:
在机房初始设计阶段,为了较快的选定空调机的容量,可采用此方法,即以单位面积所需冷量进行估算。
计算机房(包括程控交换机房):
楼层较高时,250~300kcal/m2h
楼层较低时,150~250kcal/m2h(根据设备的密度作适当的增减)
办公室(值班室):90kcal/m2h; A .银行系统解决方案
数据设备、机房的建筑热量没有确定下来之前,可以按照估计方法进行机房空调制冷量的预估,一般为:300w ~500w/m2 ,部分高容量机房达到600w/m2;
B .电信系统信息中心
1.中小交换局信息中心机房精密空调解决方案
中小型交换局及基站通常为县级城市综合局、长途传输二级干线站或相当的通信局(站)、基站等,考虑到中小型信息中心交换局机房的交换机数量及交换机使用的频率,推荐机房空调配置制冷量的方案为700W/m2。考虑到机房的重要性机房精密空调靠冗余配置来保障,一般配置为N+2备份。
2.大型信息中心交换局机房精密空调解决方案
大型交换局通常为省会、地市级城市和大区中心通信综合枢纽(含国际局)、市话汇接局、电报(数据)局、无线局、长途传输一级干线站、市话端局以及特别规定的其它通信局(站),在通信网络中地位最重要,职能也最完整,因此对动力机房的精密空调的配置要求也是最高的,考虑到大型信息中心交换局机房的交换机数量及交换机使用的频率,推荐机房空调配置制冷量的方案为1000W/m2。考虑到机房的重要性机房精密空调靠冗余配置来保障,一般配置为N+N备份。
3.电信终端交换局信息中心机房精密空调解决方案
电信终端交换局机房一般为乡镇等机房,传输、接入网类局站通常规模较小、重要程度也较前两类低,对于此类局站,由于功能单一、规模小,通信和动力设备一般都置于同一房间,其动力配置在网络能源一体化的解决方案中是规模最小、配置最简单的一种,机房的面积小冷量需要较小,推荐机房空调配置制冷量的方案为500W/m2。机房精密空调冗余配置来保障,一般配置为N+1备份,或者备份用制冷系统保障。
C .电力系统解决方案
电厂主要是控制信息中心的机房的解决方案,电厂主要是以中型机房为主一般在200-500m2左右,以控制的服务器和控制电脑为主。对于电厂重要的控制中心一般采用N +2备份机。与电信的中小型机房的要求一致。对于电力系统的电力变电和输送控制中心,一般也为分为监控中心和信息中心,与电力收费等信息中心。一般采取N +2备份机。等同与证券等机房的要求。
3.数据中心空调气流组织
数据中心机柜和机架的布置宜排列放置,面对面形成热风通道,背对背布置形成冷风通道,电力电缆敷设在架空地板下,数据线缆敷设在机柜上方,这样一方面可以使电力电缆和数据线缆保持安全距离,另一方面又可以使电力电缆产生的热量被稀释。
气流方式采用下送上回的方式,地板送风(400-600防静电地板) ,地面风口使用高通孔率风口,根据风量和风速确定位置和数量;
拟将地板下空间用做空调系统送风静压箱;为节约能源并取得好的制冷效果,采用吊顶方式,内做回风静压箱,为 满足均匀回风要求,同时安装手动或电动调节阀,以调校送回风效果;连接空调回风口和吊顶内空间,直接从回风静压箱回风,提高回风质量;
按照机柜前送后排的方式,规划出冷通道和热通道;设备面对面距离1.2米,背对背距离1.2米; 以下为机房机柜排列及冷热通道分布图。
在专用机房空调系统中,专用空调机组设置在数据通信机房的周边,数据通信机架或机柜按进出风方向成组排列
专用空调机组将机房内的热风从机组顶部吸入,经过滤,冷、热处理后送入地板静压
箱内。冷空气通过设置在冷通道处的地板送风散流器进入机房。
进入机架或机柜的空气吸取数据通信设备散发的热量后排至热通道。在热通道内热空气上升。沿着机房顶板回到机房专用空调机组。
气流速度:
计算机房一般净高在2.5m ~3m 之间,工作区气流速度控制在0.2~0.3m /s ,建议各类送风口的送风速度按下列数值选取:
上送下回百叶侧风口流速 2~3m /s ;散流器喉部流速 2~4m /s ;
孔板孔口流速 2~4m /s ; 向孔板上静压箱内送风口流速 4~5m /s ;
活动地板向室内送风的可调风口流速 2~5m /s ;
回风口流速、在房间下部可取 l ~2m /s , 在房间顶部可取3~4m /s 。
算例:
圆形风管单位长度摩擦压力损失计算公式为: Pa/m
管件(如三通、变头等)的局部压力损失计算公式为: Pa
①送风支管及送风水平延长管沿程损失
查《简明通风设计手册》圆形风管沿程摩擦压力损失线算图,得出直径200mm ,设计流速为7m/s的压力损失为:3.3Pa ×1.5m =5Pa
②铝箔升缩软管沿程损失
查《简明通风设计手册》铝箔伸缩软管摩擦压力损失线算图,得出直径200mm ,设计流速为7/s的压力损失为:5.8Pa ×1.2m =6.96Pa
③90度弯头局部压力损失
将有关数值代入上述公式得:6.9Pa
④静压箱分支管局部压力损失
将有关数值代入上述公式得:46Pa
总压力损失为Z 总=5+6.96+6.9+46=65Pa
算例:
对每个设备机柜的控制工艺设计如下:
温湿度的控制 :
我们采用送风控制模式,保证每个设备机柜的送风温湿度,按照TC9.9的建议,我
们设定变风量送风器的出风温度(即送风温度)为20℃(干球温度),相对湿度为60%,每1KW 设备的送风量为200m3/h。
机柜的排风温度计算:
查焓湿图,可以得到其含湿量d=8.83g/kg,焓h =42.62 Kj/kg。
因为计算机房的潜热量小,设备的冷却过程可看作是等湿加热过程,每200m3/h,通过计算,可得到其出风焓值h =57.74KJ/kg。
查焓湿图,含湿量量d=8.83g/Kg,焓值h =57.74Kj/Kg时的温度为:34.74℃。 目前实际机柜的风量可调节在70%左右。另外我们可以通过变风量自动控制系统,大大减少送风量的过剩。
4.数据中心空调系统形式
A .冷源
在小型数据中心中(100个机柜以下或1000平米以下)通常采用风冷的机房空调;在中大型的数据中心推荐采用中央冷机的精密空调系统;水冷机在过渡季考虑用冷却塔直接供冷(室外空气焓值低于室内空气焓值时切换);
参考:
银行数据中心一般为区域性的大型数据处理及保存中心,在银行信息中地位最重要,职能也最完整,考虑到大型信息中心机房的主机处理数量及交换机使用的频率推荐机房空调配置制冷量的方案为800W/m2。考虑到机房的重要性机房精密空调靠冗余配置来保障,一般配置为N+N备份。
B .新风量
主机房要求维持10Pa 正压,其他房间、走廊压差不宜小于5Pa ,按照此要求计算新风量; 新风量取人员卫生所需新风量40立方米每小时和维持室内正压所需风量的较大值;
C .室内设备
精密空调处理机需包含初、高效两级过滤,确保机房含尘量符合规范要求;新风处理机要引入一定量的室内回风,以保证送入室内的空气高于室内空气的露点温度;. 新风机组考虑独立加湿(湿膜蒸发式加湿);考虑相应的机械排风,排风可兼顾消防排烟;
精密空调的处理风量应该考虑在过渡季新风供冷模式时,风量较大的情况;
5.数据中心空调系统其他注意事项
1)很多单位规划空调系统容量只注意了冷负荷,却忽视了规划风量;
2)冷凝器问题极易被忽略,尽量选择双回路、风扇转速可调的冷凝器,
室外机冷凝温度不要小于43℃,最好能达到45℃。
3)加湿开始运行效果很好,但很快发现开机后必须每周对电极式蒸汽加湿罐进行除
垢。后通过与厂商协商,通过加装软化水装置的方法解决
4)空调通风系统的变频对于数据中心是污染电源!! ,需有单独回路供空调用电;
6.数据中心绿色评价方法
绿色网格组织(Green Grid)于2007年2月制定的数据中心能效比指标,PUE (Power Usage Effectiveness )和DCiE (Data Center Infrastructure Efficinecy)是目前较有影响力的数据中心能效模型。
PUE 为数据中心总能耗(Total Facility Power)与IT 设备总能耗(IT Equipment Power)的比值;
DCiE 则为PUE 的倒数,即IT 设备总能耗在数据中心总能耗中所占比重。
这一能效模型的基本思路,是将数据中心总能耗分为分为IT 设备总能耗和基础设施(Infrastructure )总能耗两部分,当空调的用电量在主机房总用电量中所占比例较低时,数据中心PUE 也较低,较为节能;反之,则数据中心PUE 较高,能耗较大。
一般而言,一个设计、运营、维护得比较好,节能效果比较理想的数据中心主机房,其PUE 应在1.6左右,而不宜超过2.0。
7.数据中心空调的疑问
1. 在考虑机房内设备未来增加以及可靠性的情况下,冷负荷的冗余设计是怎样的?N+1,N+2;N+N;还是根据数据中心的主要级别?
2. 对于防静电地板下不允许走任何管线是否能实现,应该有机柜的动力线和网线上线分层布置(比如动力线布置与地板下)的情况?
3. 是将地板送风口布置与冷通道上还是布置于柜机的正下方?哪种方式更科学;
4. 机房的排风/排烟是