您的位置: 网界网 > 周报全文 > 正文

[周报全文]全球共战百亿亿次HPC——HPCAC 2011中国研讨会侧记

2011年12月28日 17:26:48 | 作者:网界网 周源 | 来源:网界网 | 查看本文手机版

摘要:国际高性能计算咨询委员会(HPC Advisory Council,HPCAC)是一个全球性的非赢利性组织,目前拥有超过250家成员单位。该机构成立的宗旨在于实现HPC应用的进一步探索、为成员提供最佳实例与技术支持/开发中心、进行科技前沿解决...

标签
HPC
HPCAC 2011

近日,HPCAC 2011中国研讨会在山东济南召开,多位来自著名大学、研究机构,以及HPC相关厂商的专家向与会观众分享了他们在HPC建设方面的经验与心得。

百亿亿次超级计算机无疑是大会的热点议题。例如,美国俄亥俄州立大学Dhabaleswar K. Panda教授做了“通向百亿亿次计算(Exascale)——PGAS及MPI最新进展”的主题演讲。他表示,在百亿亿次计算模式下,如何简化创建应用程序的过程,并将应用程序任务分配到整个HPC系统中是一项巨大的挑战。Panda着重介绍了百亿亿次计算MPI的优势和特性,他表示,MPI编程模式可以支持多达百万到十亿个处理器,并具备兼容其他编程模型的特性,如MPI+OpenMP、MPI+UPC等混合编程模式。特别是在处理器向多核以及众核发展的趋势下,MPI可保持交互节点(inter-node)之间的平衡。为了应对百亿亿次带来的存储压力,Whamcloud公司梁振表示,该公司核心产品Lustre文件系统需要对I/O技术、软件工程及软件栈等多方面的内容进行改进。Lustre核心组件的改进计划包括统一存储池、改进网络、用户空间DLM API等。

美国橡树岭国家实验室杰出科学家Richard Graham博士则介绍了美国橡树岭国家实验室的Spider File System(Spider高性能文件系统)。Spider File System号称是“全球最大、最快的HPC存储集群”,主要是为了应对Petascale I/O级别的极限挑战。该系统可以支持10万个CPU核的HPC带宽要求,拥有超过13440个1TB的硬盘、240GB/s的输入输出峰值、3TB以上的内存。由于Spider File System采用的就是InfiniBand高速互联技术,Graham更加坚信InfiniBand 是适合千万亿次高性能计算机采用的理想技术。

中国科学院计算技术研究所的霍志刚博士从产业角度阐述了搭建十亿亿次HPC的需求与挑战。他认为,HPC的能耗、性能、编程模式都是急待解决的问题。霍志刚尤其强调,HPC的发展需要软件与硬件厂商的共同协作与推动。

关于中国的HPC建设,HPCAC主席Gilad Shainer赞扬中国HPC水平提高得很快(+本站微信networkworldweixin),竞争力很强,并建议要做到两个方面的平衡,即不仅要建最快的系统,同时HPC的应用要跟上。Shainer尤其提醒:“千万不要花大量人力物力去研究一个专有系统,这样会浪费金钱和时间。美国以前就有一些大学选择专用系统做集群,现在都放弃了。”

除了学术上的交流,Shainer还介绍了该组织的发展状况和未来计划。他表示,为了鼓励大学生进行HPC应用的研究,2012年,HPCAC将联合国际超级计算大会(ISC)展开“大学生计算机集群竞赛”。据悉,目前已经有五支大学队报名参赛,分别是中国两支、美国两支,德国一支。

[责任编辑:孙可 sun_ke@cnw.com.cn]