- 15
- 0
- 约6.86万字
- 约 69页
- 2019-06-09 发布于江苏
- 举报
种新的MPI—Allgather算法及压缩查询并行算法研究 绪论
图5-5:CCSE—I机群解压缩测试结果
表格目录
表3-1:四种MPI ………….28
Allgather算法的平均逻辑通信距离…
表5-1: ………….52
LSSC—I机群Ompgzip对gzip的压缩加速比….
表5-2: ………….53
CCSE—I机群Ompgzip对gzip的压缩加速比…
表5.3:Ompgzip与gzip压缩比 ………….53
一种新的MPI 绪论
Allgather算浊及雎缩盘询并行算法研究
第1章绪论
1.1引言
计算机是20世纪人类最伟大发明之一。自从世界第一台数字计算机于1946
年问世以来,在之后短短的六十年时间内,计算机以磅礴之势迅猛发展,单机速
度已接近物理极限,计算机工作者开始将并行原理引入计算机体系结构的设计当
中。1972年世界上第一台并行计算机系统研制成功;20吐纪90年代丌始,以通
用部件构建的机群系统获得广泛应用,成为“平民化”的超级计算机;近两年来,
随着双核处理器的推出,并行计算开始融入个人的工作、学习和生活之中。本文
正是基于轰轰烈烈的并行技术发展趋势开展了两方面的工作:一是针对万亿次机
群优化集合通信性能;二是对一些串行应用程序做了并行化设计或实现。
1.2本文研究背景
下面分别介绍本文研究的两部分内容的研究背景。
1.2.1集合通信性能优化研究背景
近代并行编程语言环境分为共享存储(包括虚拟共享存储)环境和分布存储
存储并行编程环境包括MPI和PVM。
MPI和PVM是基于多地址空间的消息传递编程模型。在消息传递模型中,
各个并行执行的任务之间通过传递消息来交换信息、防调步伐、控制执行,为程
序员提供了灵活的控制手段和表达形式。消息传递模型的基本通信模式简单和清
楚,冈此目前大量并行程序采用的都是消息传递并行编程模型。
MPI是为丌发基于消息传递模型的并行程序而制定的工业标准,其目的是为
了提高并行程序的可移植性和易用性。参与MPI标准制定的人员来自欧美40多
个组织,大部分主要的并行计算机制造商、大学研究所、政府实验室、工业组织
等都投入到MPI标准化工作。有了统一的并行编程语言标准,并行计算环境下
的应用软件及软件工具就都能够实现透明的移植,各个厂商就可以依据标准提供
独具特色和优势的软件实现和软件支持,从而提高了并行处理的能力。
MPI是一种基于消息传递模型的并行编程接口,目前已经发展成为消息传递
模型的代表和事实上的】.业标准,而不是 门具体的语言。迄今为止,所有的并
种新的MPI—Allgather算法及压缩查咖并行算沾研究 绪论
行计算机制造商都提供对MPI的支持,因而从理论上说任何一个正确的MPI程
序可以不加修改地在所有并行计算机上运行。
MPl只是一个并行编程语言标准,要编写基于MPI的并行程序,还必须借
与MPI规范同步发展的版本。每当MPl标准推出新的版本时,MPICH就会有相
应的实现版本。
MPI库包括点到点通信和集合通信等消息传递函数,其中集合通信是基于点
到点通信函数实现的。尽管MPlCH获得了广泛的应用,其集合通信的实现的低
效性常常遭到程序员的抱怨,而集合通信的性能对MPI并行应用程序的性能有
着至关重要的影响,因此改善和优化集合通信性能的意义重大,也成为非常活跃
的一个研究课题。
本文提出一种新的MPI
Allgat
原创力文档

文档评论(0)