- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
中 南 大 学
CENTRAL SOUTH UNIVERSITY
基于MPI的并行计算程序设计测试报告
学 院: 软件学院
专 业: 软件工程
学 号:
姓 名:
指导教师:
20**-**-**
基于MPI的并行计算程序设计测试报告
并行计算概述
采用并行计算的原因:
串行程序速度提升缓慢。从串行程序的发展来讲,一方面,物理速度渐变发展,芯片速度每18个加快一倍,而内存传输率每年加快9%。另一方面,物理极限无法突破,芯片晶体管接近了原子极限,传输速度不可能超过光速。
可以加快速度。更短的时间内解决相同的问题,相同的时间内解决更多的复杂的问题。
可以加大规模。并行计算可以计算更大规模的问题。
并行计算简介
并行计算(Parallel Computing)是指同时使用多种计算资源解决计算问题的过程。为执行并行计算,计算资源应包括一台配有多处理机(并行处理)的计算机、一个与网络相连的计算机专有编号,或者两者结合使用。并行计算的主要目的是快速解决大型且复杂的计算问题。此外还包括:利用非本地资源,节约成本,使用多个“廉价”计算资源取代大型计算机,同时克服单个计算机上存在的存储器限制。为利用并行计算,通常计算问题表现为以下特征:1.将工作分离成离散部分,有助于同时解决;2.随时并及时地执行多个程序指令;3.多计算资源下解决问题的耗时要少于单个计算资源下的耗时。
对并行处理的需求极大的促进了并行技术的发展,因此许多大规模并行计算机系统相继问世,如PVP、SMP、MPP、DSM等。但传统的并行系统的高成本性、专用性、系统规模的不可伸缩性等使其难以推广到普通的商业应用和科学计算中。高性能集群系统因其性能价格比高、高可复用性、强可扩展性、用户编程方便等优点在科学研究中得到了广泛的应用。并行计算机系统的出现就需要对程序进行并行设计,这种需求使得各种不同的并行编程环境得到了很大发展。现行高性能计算机系统中使用的并行编程环境主要有两种:PVM(Parallel Virtual Machine)和MPI(Message Passing Interface)。PVM的开发始于1988年,由美国橡树岭国家实验室发起。目前很多人采用MPI作为并行开发环境。
并行计算的相关内容
存储方式。共享内存:ccNUMA,SMP;分布式内存:MPP,Cluster。
三种计算模式。Uniprocessor,shared memory,distribute memory.
并行化分解方法。任务分解:多任务并行执行;功能分解:分解被执行的计算;区域分解:分解被执行的数据。
并行算法的分类。按运算的基本对象:分数值并行算法和非数值并行算法。按进程间的依赖关系:分同步并行算法,异步并行算法和纯并行算法。按并行计算的任务大小:分粗粒度并行算法,中粒度并行算法和细粒度并行算法。
MPI简介
MPI是一个库而不是一门语言许多人认为MPI就是一种并行语言这是不准确的。但是按照并行语言的分类,可以把FORTRAN+MPI或C+MPI, 看作是一种在原来串行语言基础之上扩展后得到的并行语言。MPI库可以被FORTRAN77/C/Fortran90/C++调用,从语法上说,它遵守所有对库函数/过程的调用规则和一般的函数/过程没有什么区别。
MPI是一种标准或规范的代表而不特指某一个对它的具体实现迄今为止所有的并行计算机制造商都提供对MPI的支持可以在网上免费得到MPI在不同并行计算机上的实现一个正确的MPI程序可以不加修改地在所有的并行机上运行。
MPI是一种消息传递编程模型并成为这种编程模型的代表和事实上的标准MPI虽然很庞大但是它的最终目的是服务于进程间通信这一目标的。
MPI编程
在基于MPI编程模型中,计算是由一个或多个彼此通过调用库函数进行消息收、发通信的进程所组成。在绝大部分MPI实现中,一组固定的进程在程序初始化时生成,一般情况下,一个处理器只生成一个进程。这些进程可以执行相同或不同的程序(相应地称为单程序多数据(SPMD)或多程序多数据(MPMD)模式)。进程间的通信可以是点到点的,也可以是集合的。MPI只是为程序员提供了一个并行环境库,程序员通过调用MPI的库程序来达到程序员所要达到的并行目的,MPI提供C语言和Fortran语言程序接口。其中的6个最基本的函数就能编写一个完整的MPI程序去求解很多问题。它们是:1.MPI_INIT;2.MPI_FINALIZE;3.MPI_COMM_SIZE 确定进程数;4.MPI_COMMON_RANK 确定自己的进程标识符;
您可能关注的文档
最近下载
- 中医院药剂招聘笔试题和部分参考答案5套 .pdf VIP
- 第17课 辛亥革命与中华民国的建立 教案-2023-2024学年中职高一上学期高教版(2023)中国历史全一册.docx VIP
- 院感防控与手卫生管理规范.pptx VIP
- 《DB44T 2583-2024无人水面艇和小型智能船舶海上测试管理规范》.docx VIP
- JGJ162-2008建筑施工模板安全技术规程.docx VIP
- 富士达各功能电梯地址码(1)(1).pdf VIP
- 07K102 风阀选用与安装.pdf
- 海藻学-第四章-红藻门.ppt VIP
- 2025年人教版高中物理书目录(全).pdf VIP
- 合肥市庐江县选调县外教师考试真题2024 .pdf
文档评论(0)