立即发布信息
·深圳 [切换]

    数据中心节能降耗应从两个方面入手,第一是减少数据中心IT设备对电能的需求,降低其能耗和发热量,第二是提高供电和制冷系统的效率,减少不必要的浪费。本期讨论下数据中心制冷系统的节能。

    数据中心机房单位面积能耗由10年前的400~500W/m2迅速升高到目前的800~1000W/m2,而且还呈现不断上升的趋势。尤其是目前高密度IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为10kW左右,现在最新的刀片式服务器机架功率高达30kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。

    1.针对数据中心机房IT设备用电功耗及机房散热要求。应采用相对应的机房制冷系统解决方案和机房散热方案:

    1)当机房机柜功耗在3~6kW时,建议采用风冷或水冷空调系统,采用面对面,背对背的冷热通道分隔的机房气流组织进行规划和建设。在当地气候允许的条件下,可考虑能效比较高的水冷空调系统和自然风冷冷却方案。当机房局部产生热岛时,可使用有气流导向的变风量送风地板,增强机房热岛区的局部散热。

    2)当机房机柜功耗在8~15kW时,建议采用封闭冷通道气流组织进行规划,采用风冷或者水冷空调系统。在机房局部功率产生热岛时,可使用EC风机与送风地板,增强机房热岛区的局部散热;在机房局部产生高功率热岛时,使用机房行间空调封闭局部进行内部增强快速散热。

    3)当机房机柜功耗在15~25kW时,建议采用机房行间空调,机柜封闭增强机房热岛区的局部散热,有条件可采用冷板式机柜,柜内热空气与冷却水在柜内进行热交换的冷却技术。

    4)当机房功率大于25kW时,考虑更加高效的散热冷却技术,采用液冷技术,高密度服务器高度热品质冷却系统。

    从以上方案,我们可以看出,对于传统的低功率机柜,利用风冷空调制冷技术即可满足其运行条件。当功率大于10kW时,需采用封闭通道并采用行间空调制冷。当功率大于15kW时,需采用冷板式制冷技术满足机柜运行需要。当功率大于25kW时,考虑更加散热高效的浸没式液冷技术。

    云数据中心发展趋势为大规模、高密度机房,传统的空调制冷方式将很难满足未来的数据中心运行要求。如何更加高效节能,我们对比一下上述液冷技术路线与传统技术性能PUE。2. 不同冷却技术能耗对比对比传统空气冷却、冷板式、浸没式液冷,不考虑外界环境因素变化,三种技术对比如下:

    总 结

    分析三种技术运行工况,制冷系统制冷能耗总体不断降低。冷板式对于传统风冷冷却技术能够有效大幅度降低能耗,浸没式液冷能够更进一步节能降耗,PUE可以达到1.09。随着国内对数据中心节能指标控制越加严格,PUE有更进一步降低的趋势,有此可见,浸没式液冷在高功率、大规模数据中心节能应用存在广阔的前景。随着技术不断发展,数据中心制冷系统将会更加高效节能。


      免责声明:
      本栏目内容均为会员或第三方自行发布,所发布信息不代表本站的立场和意思表达,对于内容的真实性、可靠性无法进行实质审核,请广大网友自行甄别,由此引发的任何不良后果,创优网对此不承担任何法律责任!
      友情提醒:
      1.让您提前汇款,或者价格明显低于市价,均有骗子嫌疑,不要轻易相信。
      2.任何要求您预付定金(订金)或付款到个人账号的行为,均有可能存在诈骗风险,请提高警惕,一定远离!
      警示内容:
      根据国家安全机关要求,特别提醒网站用户,在使用本网站过程中,注意甄别对方(招聘方,放贷方,交友对象)等身份,谨防被境外人员以招聘,放贷方,交友等为名诱骗提供涉密信息或从事情报收集活动,发现可疑情况请及时拨打国家安全机关举报热线12339进行举报。
    • 您可能感兴趣
    • 用户级别:CY免费会员
    • 信用等级:信用值:0
    • 实名认证:
    • 联系人名:晟图科技
    • 联系电话:0755-89****29 点击查看完整号码
     fzts