《MPI并行程序设计》.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
机群应用开发 并行编程原理及 程序设计 Parallel Programming: Fundamentals and Implementation 曙光信息产业有限公司 *;参考文献;相关网址;;多线程库标准 – Win32 API. – POSIX threads. 编译制导标准 – OpenMP – 可移植共享存储并行编程标准. 消息传递库标准 – MPI – PVM;消息传递并行程序设计;什么是MPI?;MPI的发展过程;为什么要用MPI?;讲座内容提示;从简单入手!;Hello world(C);Hello world(Fortran);C和Fortran中MPI函数约定;MPI初始化-MPI_INIT;MPI结束-MPI_FINALIZE;MPI程序的的编译与运行;?:运行我们的MPI程序!;?:Hello是如何被执行的?;?:开始写MPI并行程序;?:开始写MPI并行程序;更新的Hello World(c);更新的Hello World(Fortran);?:运行结果;有消息传递 Greeting;greetings(c);有消息传递greetings(c);解剖greetings程序;解剖greetings程序;消息传送(先可不关心参数含义);最基本的MPI;讲座内容提示;Point to Point;Blocking Send;Blocking Receive;MPI消息;消息数据;什么是缓冲区?;MPI标识一条消息的信息包含四个域: Source: 发送进程隐式确定,由进程的rank值唯一标识 Destination: Send函数参数确定 Tag: Send函数参数确定,用于识别不同的消息 (0,UB),UB:MPI_TAG_UB=32767. Communicator: 缺省MPI_COMM_WORLD Group:有限/N,有序/Rank [0,1,2,…N-1] Contex:Super_tag,用于标识该通讯空间.;;消息匹配;status参数;分析greetings;分析greetings;Greetings执行过程;运行greetings;现在您已经能够用MPI进行并行编程了!;避免死锁deadlock;不安全的通信调用次序;安全的通信调用次序;MPI_Sendrecv函数原型;MPI_Sendrecv用法示意;空进程;空进程应用示意;阻塞与非阻塞的差别;非阻塞发送与接收;非阻塞标准发送和接收;通信的完成(常用于非阻塞通信);MPI_Wait()及应用示例;MPI_Test()及应用示例;消息探测 --Probe函数(适用于阻塞与非阻塞);MPI_Probe应用示例;讲座内容提示;MPI程序的编译;MPI程序的编译;MPI程序的运行;最简单的MPI运行命令;一种灵活的执行方式;另一种灵活的执行方式;完整的MPI运行方式;讲座内容提示;MPI数据类型;用户自定义数据类型/派生数据类型;MPI基本数据类型;数据类型图;Derived Datatype(派生);MPI_Type_contiguous;;用MPI_Vector进行矩阵的行列置换;MPI_Vector函数原型;MPI_Type_vector应用示意;用MPI_Type_indexed发送矩阵的上三角部分;MPI_Type_indexed函数原型;MPI_Type_indexed应用示意(将A矩阵的上三角部分送到另一个处理器中的T矩阵的对应位置) ;MPI_Type_struct;;其它派生类型;MPI_Pack ();MPI_Unpack();派生数据类型的应用;讲座内容提示;集合通信 Collective Communication;类型;数据移动 Broadcast Scatter Gather Allgather Alltoall;数据聚集 Reduce Allreduce Reduce-scatter Scan;int p, myrank; float buf; MPI_Comm comm; MPI_Init(argc, argv); /*得进程编号*/ MPI_Comm_rank(comm, my_rank); /* 得进程总数 */ MPI_Comm_size(comm, p); if(myrank==0) buf = 1.0; MPI_Bcast(buf,1,MPI_FLOAT,0, comm);;Gather -- 数据收集;Scatter -- 数据分散;Reduce -- 全局数据运算;集合通信的应用;后缀V:更灵活的集合通信;MPI_Gather;MPI_Gatherv;Gather与GatherV;Scatter与ScatterV;注意事项;讲座内容提示;MPI环境管理;通信域;预定义的进程组和

文档评论(0)

清风老月 + 关注
官方认证
内容提供者

该用户很懒,什么也没介绍

认证主体阳春市惠兴图文设计有限公司
IP属地广东
统一社会信用代码/组织机构代码
91441781MA53BEWA2D

1亿VIP精品文档

相关文档