您的位置: 网界网 > 周报全文 > 正文

[周报全文]Blade Server走向熔化

2003年11月24日 00:00:00 | 作者:佚名 | 来源:$page.getBroMedia() | 查看本文手机版

摘要:Blade Server走向熔化

标签

    Blade Server走向熔化

    多台刀片服务器安装在数据中心会导致从彻底的停机故障到莫名其妙的运行速度降低以及设备寿命的缩短等各种问题……

    John Sawyer每天都在为企业用户管理数据中心,他所在的公司,Johnson Controls公司,在数据中心设计与管理方面有着丰富的经验,但是,他们精心设计和规划的数据中心在安装了刀片服务器后,遇到了温度过热的问题。

    许多数据中心管理人员正在开始考虑超紧凑型刀片服务器的大规模部署。这类新系统占用的空间大大减少了传统的机架式服务器所占用的空间,但是它们却大大增加了表面发热率。将多台刀片服务器安装在数据中心会导致从彻底的停机故障到莫名其妙的运行速度降低以及设备寿命的缩短等各种问题。

    担任Johnson Controls关键设施管理服务负责人的Sawyer说:“目前,由于通风设备配置方式的原因,我们不能应付每台机架上超过2千瓦的功率。”他说,新的通风设备可以将这个数据提高到3~4千瓦。但是,当新刀片服务器满负载时,可能会消耗15千瓦或更多的电能,这等于每平方英尺的英热单位(热量单位:等于252卡)超过一台普通家庭烤箱,它所需要的冷却量足以支持两个家庭的空调。为此,Sawyer可以分开放置这些刀片服务器机架或在机架安装一部分刀片服务器,来减少每平方英尺的总功率,或者他可以添加局部的点冷却系统。

    虽然目前大多数数据中心没有很多的高密度机架,但数据中心经理们开始更换更紧凑设计的服务器机架,其中的一些机架设计在一台42U(1U为1.75英寸)机架中安装300多台服务器。专家认为人们会看到一场灾难的来临。

    尽管厂商说他们的系统在设计上可以高效率地满载运行,然而他们不一定考虑了大量的这类机架将对数据中心其余设备产生的更广泛影响。

    用户们说:“我们可以应付一两台这样的设备,但不知道如何应付大量的这类设备。”

    两个事实进一步使这个问题复杂化:每个数据中心的设计都是不同的,并且业界还没有在设计可以处理每机架15~20千瓦的数据中心冷却系统的标准上取得一致。

    一家工程咨询机构的专家说,来自美国加热、冷却与空调工程师协会(ASHRAE)的现行准则已经过时了,设计工程师现在使用来自穿孔卡片和水冷大型机时代的标准。ASHRAE下属高密度电子设备设施冷却委员会透露,他们正在加紧制定新的热量准则,预期年底前公布一项标准。

    冷却刀片服务器现在成为了很多用户的一块心病。某用户希望升级一个大型工程计算服务器场需要100部装满刀片服务器的机架,不过,15千瓦的功率令人难以置信。该用户说,必须采取特别的措施来冷却它们,除非你希望让它们燃烧起来。将机架部分地安装上刀片服务器的想法是根本不可行的,谁希望将服务器安装在一部分机架中,而让余下的机架空着呢?

    工程师们说,一些与热量相关的问题源于设计不完备的环境。某些用户说,在冷却2或3千瓦的机架上常遇到麻烦,地板与顶部之间10度温差的现象十分常见,过量的冷却能力被安装在地板上,利用率很低。

    避免过热

    当机架顶部温度超过75华氏度时,故障或设备寿命缩短等与热量相关的问题可能开始出现。此外,许多高端刀片处理器还被设计为:当温度上升时,降低时钟速度。这样做可以保护部件,但是没有监测机架温度的管理人员可能会误解造成问题的原因,因此增加更多的刀片,以试图提高性能,从而火上浇油。

    某些用户决定重新设计数据中心来安装刀片服务器,可以做到每机架10千瓦。采用将机架一行行放置,使机架之间采用热通道/冷通道设计。来自冷过道地板的冷空气进入到每一台机架中,然后从机架中出来返回到热通道中,在热通道中,热空气被排出并被再次冷却。

    除此之外,还需要向单个机架添加点冷却设备。某用户提供设计用于将热空气从机架中抽出并迅速冷却的设备(+微信关注网络世界),包括安装在天花板上的空调设备和直接将热空气从机架背部吸出的用螺栓固定的废气扇。另一用户则表示,这种作法存在的问题是可伸缩性。如果安装500台机架的话,可伸缩性和维护要求变得令人难以置信。

    咨询人员对传统的、活动地板计算机房空调系统可以有效地冷却多少千瓦的设备的看法并不一致。多数人说4到5千瓦是上限,然而,实际的答案取决于每个数据中心的设计。

    每千瓦负载需要每分钟流过机架140立方英尺的空气才能保证合适的冷却,在未来的机架中,将需要超过每分钟1000立方英尺的空气流量。

    还有用户认为,如果造成地板下的空气流动过快的话,购买额外的冷却能力可能并不会带来改善。空气在地板下快速流动的事实,实际上造成了文氏管效应,这种效应将空气吸入到地板而不是将它排入到冷通道中。来自热通道的空气在机架顶部流行,并重新循环通过设备,造成设备的过热。

    某用户说他冷却过7千瓦的机架。不过,这需要非常大的气流从地板下流出,因此被限制在使用一台大型冷却设备冷却6台左右的机架上。数据中心的总负载仍必须保持在每平方英尺100瓦以下。超过这个限度后,用于冷却的空间将超过你通过压缩机架空间所节省的空间。

    而刀片服务器厂商HP、Sun 和IBM则说,刀片将变得越来越小,功能越来越强大。以前在大型机上一直走这条路的IBM说,未来,冷却技术可能将回到过去。IBM的相关负责人说:“我们不希望采用水冷方式,但是看起来这是不可避免的。到明年年底时,我们将处于采用水冷的边缘。”他认为,到2005年时,在单个刀片或刀片机箱级上进行冷却的外部水冷系统将成为必不可少的设备。

    HP公司目前的设计采用安装在刀片服务器上的风扇,HP说,应当可以冷却功率最多为18千瓦的单个机架。

    Sun公司拥有用在其刀片服务器中的Sparc CPU,因此对设计具有更多的控制,但是他们的技术人员说Sun也希望采用液体冷却技术。

    用户们担心,随着服务器密度的增加,更复杂的冷却设计将增加成本并造成维护上麻烦。他们真正需要的是一种取代方案,这种方案将是切实可行的,同时不增加额外风险。(美国IDG供本报专稿)

[责任编辑:程永来 cheng_yonglai@cnw.com.cn]