克希霍夫时间偏移在GPU集群上的MPICUDA混合编程实现.PDF

克希霍夫时间偏移在GPU集群上的MPICUDA混合编程实现.PDF

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
克希霍夫时间偏移在GPU集群上的MPICUDA混合编程实现.PDF

科研信息化技术与应用 2 0 1 2 , 3 ( 5 ) : 3 4 – 4 1 TECHNOLOGY ·技术 /  · GPU 克希霍夫时间偏移在  集群上的 MPI / CUDA 混合编程实现 刘芳,邓笋根,聂宁明,王彦棡,王珏 中国科学院计算机网络信息中心 超级计算中心,北京 100190 GPU MPI/CUDA 摘  要: 本文介绍了二维/三维克希霍夫时间偏移计算在  集群上的  混合编程实现。系统的 MPI -pthread -CUDA 主体结构基于经典的主从模式,采用  进程  线程  线程三个层次的并行架构,以 CPU/GPU CPU GPU 及  协同计算并行架构和策略来设计实现。每个计算节点由一个多核  和多个  设 备组成。输入数据在主节点上载入,平均分配到从节点上,存储到相应的磁盘空间内,并根据各节 点的可用资源将数据划分为多块。每个从节点分别接收主节点发送的数据并存储到本地磁盘上的 临时文件内。根据检测到的可用GPU 设备数,每个从节点上创建同样数目的线程来一对一控制各 GPU 个  。各从节点上每个数据块再进一步划分为大小相等的块一一分配给各个线程,由每个线程 CPU GPU CUDA 逐道在  上预处理后传送到  上处理,道内的各成像点分别由各  线程并行处理。每 个数据块偏移由每个线程内的相关道累加计算而得,结果返回到主节点上累加后输出到磁盘文件 CPU/GPU 内。在实现过程中,采用  协同计算以及线性插值走时的方式来进一步提高性能。系统性 GPU 8GB CPU 6GB 能在一典型异构  集群上测试,每个节点由一个配置  内存的四核  ,以及配置  显 C1060 GPU 存的  型号的  组成。对于不同的规模和积分计算模式,在该平台上的测试结果表明,本 4 MPI 文实现的系统的性能对于包含相同计算节点数、每个节点上  个线程并行计算的  版本,可以 5~10 达到平均约  倍的加速。 关键词: MPI CUDA 地震勘探资料数据处理;克希霍夫时间偏移;协同计算; ; A Hybrid MPI/CUDA Implementation of Kirchhoff Time Migration on Multi-GPU Clusters Liu Fang, Deng Sungen, Nie Ningming, Wang Yangang, Wang Jue 基金项目:中国科学院科研信息化

文档评论(0)

zcbsj + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档