IBM_GFPS与存储应用解决方案(IBM GPFS并行文件系统解决方案)精选.docVIP

IBM_GFPS与存储应用解决方案(IBM GPFS并行文件系统解决方案)精选.doc

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
IBM_GFPS与存储应用解决方案(IBM GPFS并行文件系统解决方案)精选

IBM GPFS并行文件系统解决方案 随着技术的发展,大规模的并行计算的方式激发有关行业对高性能计算机的需求,作为后起之秀的Linux 集群系统,吸取了SP 大规模并行机的诸多优势,IBM的通用并行文件系统GPFS 等和Linux 集群系统的竭诚不仅能在并行运算方面的性能得到保障,增强了集群系统的可管理性,而且采用具有高可用性的IBM xSeries 服务器,可以大大降低成本。 目标市场: 金融行业、气象局、地质勘探、高校实验室、生物工程、科研探索等高性能计算领域。 IBM GPFS并行文件系统解决方案构成 高性能计算机的架构主要以集群为主,整个高性能计算系统在硬件基础架构上包含计算资源、网络资源和存储资源三大部分。在目前主流的采用Linux 并行集群架构的高性能计算系统中,计算资源分为计算节点和I/O 节点,计算节点负责运行计算任务,I/O 节点则负责数据的存储并响应计算节点的读写请求,不同计算资源节点之间通过高速网络进行通信和信息交换。 在此次方案中,我们选用的IBM Linux 集群系统使用了基于Intel Xeon 处理器的刀片服务器节点、成熟的集群管理软件、提供极高的持续带宽保证的存储服务器,集中了最好的IBM 高性能设备和技术。不仅能在并行运算方面的性能得到保障,而且增强了集群系统的可管理性和可维护性。采用具有高可用性的IBM xSeries 服务器,大大降低了总体成本。同时,数据量的增加,带来了针对数据的管理,共享,分布,保护等实际需求,市场要求存储厂商不断推出适合需求的解决方案和产品。传统的服务器-客户机网络结构在性能、可管理性、连接性等方面都达到了极限,而SAN 是解决这些问题的理想方案。IBM DS3500存储平台作为IBM针对大规模并行计算领域有着高性能、高稳定性和易扩展、易管理等特性,十分满足高性能计算平台对于存储设备的要求。 在计算节点的选择上,IBM 建议采用Blade Center +HS22 刀片, IBM BladeCenter 支持最新的Intel 和AMD 四核处理器,支持业界最快的高达4.0 GHz 的Power 6 处理器,以及专用于高性能计算的九核Cell 处理器。IBM HS22 是业界功能最强大的刀片,HS22 采用最新的Intel Nahelem处理器,在集成了IBM BladeCenter 传统的高可靠等优势的基础上,性能、功耗和虚拟化的功能都比上一代产品有了显著提升。 IO 节点采用IBM 的X3850或者X3650,产品前后端高吞吐量以及灵活组合方式,能提供极高的持续带宽保证,非常适合做高性能计算环境下持续带宽要求极高的存储服务器,显著提高I/O 节点的处理能力: ?? I/O 节点是提供存贮共享的计算机。为了使任务可以并行执行,每台执行任务的计算机必须能够访问同样的数据,本方案存贮节点通过集群文件系统(IBM GPFS)来确保数据访问的同步。 ?? I/O 节点和高性能存储直接相连,并通过自己的Fiber Channel I/O 通道将冗余磁盘阵列上的多个分区做成集群并行文件系统GPFS,并向计算节点提供数个唯一路径且全局共享的文件系统。本方案提供高速的文档读写服务给所有计算节点, 特别适合于有可能会产生大文档的高性能应用上。 通常的IO节点机共计4套主机,每个主机为两块8Gb的高性能HBA卡,单IO节点连接到SAN网络交换机,每个节点配置的带宽为16Gb的带宽性能,本次测试配置4个IO节点,共计有8条8Gb 带宽联入SAN核心网络中,从IO节点联入核心网络总持续写入带宽为6.4GB/S的带宽。 两台DS3500存储节点,每台配置8个8Gb FC接口联入SAN网络中,共计IO带宽为12.8GB/S. 每台DS3500存储节点配置为48块300G 15K RPM SAS及48块1TB NL 7.2K SAS,在每台DS3500上实现IO分级存储,将核心的频繁读写的IO的LUN划分在15K的高速SAS存储上,其它的分布在NL SAS上,IBM的GPFS支持HPC的分级IO功能。本次方案为双节点DS3500存储节点,每个节点连接3个扩展柜,一级存储容量为300G×96 SAS共计28TB容量,二级存储容量为1TB*96 NL SAS, 共计存储容量为96TB. 针对DS3500,在全配置8个8Gb FC接口的情况下,每个DS3500盘阵可以提供4GB/S的硬盘持续带宽,两台DS3500共计可提供8Gb/S的持续带宽。 在GPFS配置上,我们建议用户配置2MB的IO Block Size,针对大规模并发运算应采用较大的IO读写带宽,在我们提供的GPFS HPC运算方式中,保证用户为提供最大带宽,单个GPFS系统并发带宽可以通过16个8Gb FC端口平均分布在这24

文档评论(0)

feixiang2017 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档