您的位置: 网界网 > 周报全文 > 正文

[周报全文]远离热源 制冷的规模化

2012年01月17日 09:47:08 | 作者:佚名 | 来源:网界网 | 查看本文手机版

摘要:靠近热源的解决方案和技术容易理解,数据中心中热点分布不均,又容易随着业务改变而有所转移。

标签
热源
解决方案
数据中心

目前在国内新建的大型数据中心中就可以看到这一趋势的案例。与之相对,远离热源方案就似乎让人想不通。但是,就是这种与传统想法相左的方案却做到了一个PUE只有1.07的数据中心,让人叹为观止。这就是Facebook在俄勒冈州的普利维尔数据中心。

Facebook的数据中心在很多方面都有所创新,本文仅仅讨论制冷这一方面。且不说俄勒冈州气候凉爽、干燥,过去50年来,普利维尔的温度从未超过105华氏度(约40.56摄氏度),是建设数据中心的绝佳地点,单是该数据中心的架构就非常值得探讨。

该数据中心使用了双层架构,将服务器和制冷设备分开,允许对服务器占地面积的最大利用。Facebook选择通过数据中心的上半部分管理制冷供应,因此冷空气可以从顶部进入服务器空间,利用冷空气下降,热空气上升的自然循环,避免使用气压实现下送风。

空气通过在二楼的一组换气扇进入数据中心,然后空气经过一个混调室,在这里,冷空气可以和服务器的余热混合以调整温度。然后冷空气经过一系列的空气过滤器,在最后一间过滤室通过小型喷头进一步控制温度和湿度。空气继续通过另一个过滤器吸收水雾,然后通过一个风扇墙,将空气通过地板的开口吹入服务器区域。整个冷却系统都位于二楼,空气直接吹向服务器,无须风道。“这一系统的美妙之处在于,我们没有任何的管道系统。” Facebook数据中心工程主管JayPark曾表示:“空气直接进入数据大厅,压入整个数据中心。”

整个数据中心制冷的点睛之笔在于气流组织设计,具体而言就是盘管墙和风墙的设计。盘管墙的好处是把空调里面的阻力最大的部件拉长、拉大,这样做使得风机的功率损失很少。Facebook数据中心的两层设计给盘管墙留下了非常大的放置空间,而风机的过风速度经过风墙可以进一步减少。与下沉风机相比,Facebook数据中心把风机摊开,扩大了截面积就更利于降低风速。这个时候,整个数据中心里气流组织的部分能耗已经极大减少了。“该数据中心的设计非常简单,就是把盘管做一面墙拉大,风机做一面墙拉大,风机的过滤器进一步地增加过风面积。” 数据中心工作组顾问专家、《数据中心机房空调系统技术白皮书》参编人之一张敬如此解读。

“在Facebook的方案里,单独模块很大,一个模块有一两千瓦(+微信关注网络世界),利用新风自然冷,整个空调系统完全脱离IT区域主机房之外,这种方式非常节能。”王前方对Facebook数据中心的制冷方式赞不绝口,但是他又说:“这种方式在规模小的数据中心建设有难度,在超大型数据中心节能效果明显。用户需要根据自己的需求和定位来选择合适的技术和产品。”

关于节能的思考

据Data Center UsersGroup做的一项调查显示,数据中心能效已迅速成为业界优先考虑事项,42% 的受调查者表示他们已经或正在对能效进行分析。这在数据中心规模已经渐渐脱离了传统机房定义的今天显得尤其突出。什么样的方式更节能并没有一定之规,远近有度,因地制宜是正解。仅就温度而言,《电子信息系统机房设计规范》(GB50174-2008)中对应的要求是主机房设计温度为23℃±1℃标准,美国的ASHRAE《美国暖通制冷空调工程师协会》在2011版本中把2004版本中的20℃~25℃范围扩大到18℃~27℃。“从节能角度来看,有些数据中心可以允许温度高一点,就可以选择27℃。有些用户觉得设备正常运转即可,节能问题关系不大,就可以要求温度低一些。具体而言,就是要根据用户的需求来进行设计。” 中国电子工程设计院副总工程师/研究员级高工、数据中心工作组组长钟景华总结道。

[责任编辑:孙可 sun_ke@cnw.com.cn]