GPU加速技术在图论算法中应用探讨.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
GPU加速技术在图论算法中应用探讨

GPU加速技术在图论算法中应用探讨   【摘要】 对于图数据来说,其是当前很多学科的基础理论,特别是对于数学和计算机学科,如何实现图算法的计算效率是最主要的研究内容之一,伴随着算法的成熟,传统的图算法已经无法满足发展需要,为此,人们逐渐开始进行并行图算法的研究。但由于传统的CPU对数据处理受到限制,研究人员逐渐引进了新型的GPU运算处理器,其具有运算核心数量多和能力强等优点,随着对GPU研究的增多,GPU领域的图算法发展也得到了有效的提高。本文对当前的GPU加速技术在图论算法中的应用进行了简单的介绍。   【关键词】 CUDA 强连通分量 最小生成树 最短路径   随着信息时代的发展,数据总量也在逐渐增加,这使得人们对高性能的计算能力迫切需要,像基因序列的分析以及天气预报等,但传统的CPU单核计算已经无法满足人们工作的需要,为此,开发多核计算工具和并行算法是当前信息技术发展的重要需求。这种情况下,图算法作为图论的核心内容,逐渐被人们关注,其能够通过海量的图结构数据进行有效的分析,但由于其算法的不规则访存特性使其设计难度不断增加。为此,本文对如何实现图算法的加速进行了简单的介绍,通过GPU加速技术的应用能够使图算法的应用成为现实。   一、GPU同传统并行计算架构的区别   1.1 同多核CPU的区别研究   对于CPU,其应用目的对其体系是一种严重的限制,在CPU芯片上,大部分的电路都是用作逻辑控制或者缓存,这导致计算单元的晶体管数量非常少。通过大量的研究可以发现,对于GPU来说,其在应用的过程中,并行指令的数量非常少,但CPU却大部分采用的是长指令字等指令级的并行技术,这种技术使其架构和GPU之间存在着本质上的区别。此外,设计目的也存在着较大的差别,对于CPU,其主要是实现ALU指令的获取和执行,因此,逻辑控制电路等数量较大,但对于GPU来说,其主要是为了提高自身的计算能力,其更加注重的是对数据的吞吐效率,因此,对于逻辑控制设计相对较为简单。   1.2 同分布式集群的区别   对于GPU和集群之间的区别,其主要分为两个方面:首先是在计算方式上,对于集群,其采用的是主从模式,这种计算方式采用的是分割计算,通过Slave的计算和Master的集合和处理功能对数据进行计算。对于GPU来说,其通用计算和集群的模式相似,但GPU是Slave。然后是通信方式之间的区别,对于集群,其通信主要是通过局域网或者互联网等,这种算法在计算时需要对传输的细节进行重点的考虑,防止设计方面出现传输限制。而对于GPU芯片而言,其采用的是PCI-E接口进行数据等的传输,因此,其仅仅需要考虑的是如何对计算内容进行分配以及哪一部分的CPU具有什么样的特性等。   二、GPU加速计算有向图的强连通分量   对于有向图的强连通分量计算,其是图论中一个非常基本性的问题,像对复杂产品设计中的耦合任务集进行识别等。若将设计过程中所涉及到的各个人物看做是图的顶点,然后通过不同任务之间的关系能够建立一个有向图,而其中的耦合任务集的识别就变为了对途中的强连通分量进行寻找。在GPU加技术应用之后,设计了一个FB算法,其能够对非平凡图的强连通分量进行计算。   2.1 FB算法   对于FB算法,其在计算过程中不是依靠DFS为子的一种算法,而是通过分配模式将不同的子问题分配到各个单元中对其进行处理,而对于每个子问题,其都是通过顶点的可达性来进行分析,因此,FB算法具有较强的并行化能力。对于FB算法,其需要对下面两个引理进行重点的观察:   给定有向图G=(V,E),v?V,那么对于任何不包含v的强连通分量,其一定是FWD(G,v)BWD(G,v)和Rem(G,v)三个和集中的一个。   通过这两个理论可以得知,对于FB算法,其具体的计算过程是:首先选择一个顶点,然后对其前闭包和后闭包进行计算,两个集合之间的交集就是强连通分量值。然后通过剩余的顶点对原图进行3个子集的划分,并通过迭代计算对三个子图进行重复性的上述计算过程,这样就能够实现子图的并行处理计算。   2.2 基于CUDA的FB算法   首先是GPU中的图存储,对于当前的图算法,其采用的都是邻接表或者邻接矩阵,对于G=(V,E),其采用邻接表来对其进行表示,定义数组Adj代表|V|,其包含了满足(v,u)∈E的全部顶点,然后通过|V|×|V|来对矩阵进行表示,通过邻接表对无向图进行表示时,其大小为2|E|,而有向图的表达则是|E|。而采用邻接矩阵进行表示时,其空间需求都是O(V2)。而在通过GPU技术进行图数据的存储时,需要对下面几点内容进行考虑:首先,同现代的传统CPU主机系统相比,GPU的系统内存相对较小,然后是CUDA的模型,其采用的是一种CPU-GPU的异构模型,这种模型在进行数

文档评论(0)

317960162 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档