MPI并行程序设计简介..ppt

MPI并行程序设计简介..ppt

MPI并行程序设计简介;讲座内容提示;参考文献;多线程库标准 – Win32 API. – POSIX threads. 编译制导标准 – OpenMP – 可移植共享存储并行编程标准. 消息传递库标准 – MPI – PVM;消息传递并行程序设计;什么是MPI?;MPI的发展过程;为什么要用MPI?;?:从简单入手 —Init和Finalize;Hello world(C);Hello world(Fortran);C和Fortran中MPI函数约定;MPI初始化-MPI_INIT;MPI结束-MPI_FINALIZE;MPI程序的的编译与运行;?:运行我们的MPI程序!;?:Hello是如何被执行的?;?:开始写MPI并行程序 —Comm_size和Comm_rank;MPI 提供了下列函数来回答这些问题: 用MPI_Comm_size 获得进程个数 p int MPI_Comm_size(MPI_Comm comm, int *size); 用MPI_Comm_rank 获得进程的一个叫rank的值,该 rank值为0到p-1间的整数,相当于进程的ID int MPI_Comm_rank(MPI_Comm comm, int *rank);;更新的Hello World(c);更新的Hello World(F77);?:运行结果;?:写MPI并行通信程序 --Send和Recv;有消息传递greetings(c);有消息传递greetings(c);解剖greetings程序;解剖greetings程序;讲座内容提示;Point to Point通信;Blocking Send;Blocking Receive;MPI消息;;消息数据;MPI基本数据类型;MPI标识一条消息的信息包含四个域: Source: 发送进程隐式确定,由进程的rank值唯一标识 Destination: Send函数参数确定 Tag: Send函数参数确定,用于识别不同的消息 (0,UB),UB:MPI_TAG_UB=32767. Communicator: 缺省MPI_COMM_WORLD Group:有限/N,有序/Rank [0,1,2,…N-1] Contex:Super_tag,用于标识该通讯空间.;status参数;消息匹配;分析greetings;分析greetings;Greetings执行过程;运行greetings;最基本的MPI;现在您已经能够用MPI进行并行编程了!;实例分析:求PI;串行代码;并行代码;cpi.c;cpi.c;cpi.c;cpi.c;cpi.c;谢谢!

文档评论(0)

1亿VIP精品文档

相关文档