热门技术:数据中心超融合架构技术详解.pdfVIP

热门技术:数据中心超融合架构技术详解.pdf

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

热门技术:数据中心超融合架构技术详解

全球的IT数据每年在以40%的速度增加中。数据正在逐步影响商业,企业通过数据

的分析来做决策与管理。完成快速的分析决策和管理,就需要借助强大的数据中心。下图为

传统SAN存储:

图一、传统SAN存储

但是,光靠越来越快、核数越来越多的CPU是不够的,瓶颈在于传统存储的硬盘太慢

了,CPU大部分计算能力都空闲或者说在等待存储数据传输过来。传统存储容量和性能不

具备和”计算能力“匹配的可扩展性,不能满足企业进行数据访问的需求。

图二、传统SAN存储遭遇I/O瓶颈

为了解决这一问题,超融合技术应运而生,它打破了传统的存储思维,利用服务器的本

地硬盘和软件构建了一个容量和性能不断可扩展的分布式文件系统,并在其上构建了其搜索

和分析的计算引擎:不用把数据从存储端取出来,然后通过网络传输到计算端,而是将计算

直接分发到存储上运行,将“计算”作为传输单元进行传输,这样大量的存储数据都是本地访

问,不需要再跨网络上传输了,自然访问很快。于是乎,自然而然地,“计算”和“存储”运行

(“融合”)在了一个服务器上,这里我们也看到超融合架构的一个优势就是,本地访问数据,

不必跨网络。

图三、超融合架构示意图

超融合存储通过完全去掉传统存储,利用分布式文件系统来提供“不可限量”的性能和容

量,在这个基础上,再通过Cache进行加速,甚至全部使用闪存(全闪存产品)来构建都

是自然而然,不被限制了。

因此,超融合架构不是为了让单台服务器的存储飞快,而是为了让每增加一台服务器,

存储的性能就有线性的提升,这样的存储结构才不限制企业业务的运行,并保证业务的可靠

性。

图四、超融合将存储池化,性能线性提升

另外,超融合近几年得以快速发展的原因,这要归功于硬件设备。CPU核数越来越多,

服务器的内存容量越来越大,SSD设备和网络互联网设备越来越快,这意味着:

a.服务器的资源除了运行业务以外,仍然可以预留出来足够的CPU,内存资源来运行存储

软件。将存储软件和业务运行到一块,既减少了设备量,减少了电力使用,本地读取也提高

了I/O的存取效率。这在几年前是做不到的,因为CPU和内存太有限了。

b.网络互联越来越快,无论是万兆,40Gb以太网,还是Infiniband(无限宽带技术),使得

我们的软件能够将独立的存储设备进行互连,通过分布式文件系统形成共享的存储池,供上

层应用使用。

c.如果说SSD等硬件厂商让单个存储设备跑的更快,我们的软件的意义在于,让超大量的

这些存储设备,一起工作,提供无止境的整体性能和容量。

在超融合架构中,层次存储是提升数据的I/O性能的最好选择。原因在于:

首先,让我们追溯到现代计算机体系结构中,解决系统性能瓶颈的关键策略:Cache。

现代计算机体系结构是基于冯·诺依曼体系结构构建的,冯.诺依曼体系结构将程序指令当做

数据对待,程序和数据存储在相同的存储介质(内存)中,CPU通过系统总线从内存中加

载程序指令和相应的数据,进行程序的执行。

冯·诺依曼体系结构解决了计算机的可编程性问题,但是带来了一个缺点,因为程序指

令和数据都需要从内存中载入,尽管CPU的速度很快,却被系统总线和内存速度的限制,

不能快速的执行。为解决这个问题,Cache的理念被提出,通过在CPU和内存之间加入更

快速的访问介质(CPUCache),将CPU经常访问的指令和数据,放置到CPUCache中,

系统的整体执行速度大幅度提升。

此时,I/O性能瓶颈问题转移到了存储。如果内存的访问速度相对CPU太慢,那么磁

盘的I/O访问速度相对CPU来说就是“不能忍”了。下表是不同存储介质的访问延时,在虚

拟化环境下或云环境下,由于I/O基本都是随机I/O,每次访问都需要近10ms的寻道延

时,使得CPU基本处于“等待数据”的状态,这使得核心业务系统运转

文档评论(0)

180****9988 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档