您的位置: 网界网 > 周报全文 > 正文

[周报全文]RAM刀片 未来的趋势

2007年01月04日 16:49:09 | 作者:佚名 | 来源:$page.getBroMedia() | 查看本文手机版

摘要:刀片的RAM可能最终分裂为两部分: 刀片上用于高速缓存的较小的RAM; 通过独立刀片或高速网络提供的高容量RAM池。

标签
内存
刀片
 

刀片RAM可能最终分裂为两部分: 刀片上用于高速缓存的较小的RAM; 通过独立刀片或高速网络提供的高容量RAM池。

在过去的5年中,服务器被分解为不同的部分,其中一些部分最终在网络上安家。服务器变身为刀片,而电源、网络接口和存储被很多刀片共享。这些刀片本身只包含基本的主板、CPU内存模块。

在许多企业中,大多数存储系统是基于SAN的,通过高速光纤网络共享。其他很多服务也迁移到了网络上,如SSL终止与加速、安全服务(防火墙和IDS/IPS)和优化服务(TCP加速、缓存和协议优化)。

“最低要求的”刀片架构由更快网络演进而来。随着数据中心网络[注]速度的提高,下一步会是RAM与刀片服务器分家吗?

分离RAM与刀片服务器

目前,快速访问RAM要求具有非常低延迟的高速总线,因此RAMCPU同处一块主板上,并且只可供一个刀片使用。可以想象,RAM可能最终分裂为两部分:刀片上用于高速缓存的较小的RAM;通过一块独立刀片或者高速网络提供的更大容量的RAM池。

在这种架构中,RAM可以被分区,并根据需要分配给不同的刀片服务器,而且虚拟机能够动态地扩展和减少它们的RAM需要。当然,即便是高速网络,速度仍低于主板上的总线,但是,更大的灵活性能够带来的好处超过了对性能的影响。

RAM刀片外观像是计算刀片,但上面只有一排排的DIMM插槽。一块RAM刀片可以提供数十甚至数百GB容量的RAM。因此,计算刀片将得到简化,上面只有CPU模块,或许还有少量用于提供高速缓存的RAM

实际上,刀片因此将有3级内存缓存:CPU上的L1L2缓存,以及刀片上额外的小量RAM芯片(或许可以将其称之为L3缓存)。在今天的刀片中,RAM插在DIMM插槽中可进行升级。而在计算刀片中,板载RAM可能是固定的。计算刀片的大多数RAM需要将通过从RAM刀片池(这些刀片或者处在同一个机箱或在相邻的机架中)分配RAM来满足。

这样,所有的计算刀片可以从一个大资源池中得到RAM

分离带来的优势

同使用服务器虚拟化技术一样,RAM虚拟化也带来了更高的RAM利用率和灵活的分配策略。显然,RAM虚拟化的一些优势如下:

更高的利用率。一些刀片可能拥有超出它们需要的RAM,而另一些则缺少RAMRAM可以虚拟地从资源池重新分配,而不是重新分配工作负载或从DIMM插槽中移动实际的RAM

灵活性。当工作负载随时间发生变化时,应用可以根据自己的需要分配RAM,不管刀片上有多少物理的RAM。在使用64位操作系统时,可寻址的RAM非常大(Windows x64达到了16TB)。

更低的费用。RAM的费用是由大小(容量)和密度决定的。由于刀片只有有限数量的DIMM插槽,因此密度成为刀片面临的问题。虚拟化将允许混合1GB4GB16GB以及更大的DIMM尺寸,使RAM可以根据密度和费用购买,而不是由有限的插槽数量决定。

简化部件。正如将存储与服务器分开使服务器变得更简单一样(这导致了刀片的出现),将RAM与刀片分离将进一步简化刀片的设计。

RAM刀片是一种非常不确定的事情(+本站微信networkworldweixin),不过,它们符合我们在数据中心看到的发展趋势。显然,RAM刀片的发展是以数据中心中的更高速的网络为先决条件的,而这也是个显然的趋势。随着RAM与主板分离,服务器将完全划分为不同的资源,而虚拟化技术将达到平稳期。这些的确是计算和数据中心领域令人兴奋的时刻。(美国《Network World》供本报专稿)

编看编想

服务器正在逐渐变成一个标准化的模块,这让服务器的部署、管理、维护变得更加容易和方便。在现有的刀片服务器架构中,已经有了计算模块、存储模块、交换模块等各种分离的标准化的插件,无论是哪个部分出了问题,只要随时更换模块就可以,无关大局。如果真的能够出现RAM模块,那么有关内存的合理利用、优化和升级,也将更加模块化和标准化,这对服务器管理人员来说,是一件非常有意义的事情。

也许,从某个角度说,如此模块化的刀片架构,有点类似于软件系统中的“构件”体系,最小的模块不是以物理属性分割,而是以应用属性分割,因而其灵活性更强,利用率更高。

 

参考资料

1.数据中心网络:(Data Center Network)是应用于数据中心内的网络,因为数据中心内的流量呈现出典型的交换数据集中、东西流量增多等特征,对数据中心网络提出了进一步的要求:大规模、高扩...详情>>

[责任编辑:程永来 cheng_yonglai@cnw.com.cn]