网站大量收购独家精品文档,联系QQ:2885784924

数据中心无损网络关键技术研究.docxVIP

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数据中心无损网络关键技术研究 摘要:通过对传统数据中心网络面临的各种问题进行分析,阐述了AI、Server SAN等场景对网络的需求,介绍了无损网络在应对上述场景时的优异表现,并在流控机制、拥塞控制和负载均衡等方面对无损网络的关键技术进行了进一步阐述,也对无损网络发展进行了展望。 引言 各种应用程序、数据的指数级增长,以及云服务的快速普及等因素,导致由孤立的单体系统构成的传统基础架构变得过时。基础架构的融合成为数据中心的根本转变,融合或超融合基础架构应运而生,其将计算、存储、网络和虚拟化组合构建成一个统一架构,以便简捷高效地配置和横向扩展。在网络方面,以太网成为现代数据中心实际采用的互联方式。基于以太网的统一网络架构用于传输各种类型的通信流,为这种融合奠定了基础。虽然这种统一和融合式网络有着诸多好处,但也带来了新的挑战。 由于传统数据中心网络在数据传输中采取“尽力而为”的方法,以太网络是“有损”的。当以太网络发生拥塞时,数据包会被丢弃,然后由上层(如TCP中的重新传输)保障数据的完整性。在重新传输的情况下,这些数据包通常不按顺序抵达目的地,进而需要重新排序。随着数据流汇聚到以太网络上,这种重新传输和重新排序将导致应用程序的性能严重下降[1]。考虑到融合性质,这种情形还可能会导致网络上的其他数据流的应用性能下降。因此,需要一套措施来确保流量在以太网网络上实现无损传输。 1 传统网络问题分析 无论是构建公有云,还是用作企业云服务的私有数据中心,都需要解决一组常见的问题:如何为快速变化的环境构建一个高度灵活的组网,以承载多种类型的流量,从而使网络可以最小化,甚至消除丢包损失;在提供高吞吐量的同时,保持低延迟。数据中心流行的CLOS网络架构通过等价多路径实现无阻塞性能,并拥有弹性,交换机之间的连接方式使其具有可扩展、简单、标准和易于理解等优点[2]。在CLOS网络中,机架顶部的交换机被称作叶交换机,它们连接在被当作核心的脊交换机上。叶交换机之间互不相连,而脊交换机只与叶交换机连接。目前,数据中心已经采用了很多技术,试图解决拥塞控制问题。尽管拥塞控制有所改善,但仍不能为今后的使用场景提供无损的网络,以下问题仍然存在。 1.1? 等价多路径冲突 通过散列流标识符来选择路径,这样的做法很简便,但缺乏考虑路径本身是否拥塞。如图1所示,很容易发生多个流被散列到相同的路径上的情况,从而导致链路过载。此外,流量的大小通常呈双模态分布:大多数的流是老鼠流,而大部分传输字节则来自大象流。ECMP选择路径时不会考虑流量的大小,而对ECMP的改善应该涉及选择路径时的拥塞感知和细粒度的流量负载均衡。 图1? ECMP负载均衡时的冲突 1.2? 显性拥塞通知的控制环路延时 大型的网络拥有更多的跳数,因此ECN控制回路的往返时间(Round-Trip Time,RTT)会更长。大型的网络也会支撑更多的数据传输,在ECN生效前很难处理突发流量。通过增加交换机缓存去处理突发流量是不可取的,因为这样不仅会增加成本,也会增加那些正常流的排队时间。端到端的拥塞控制对有序的网络至关重要,但为确保网络可以有效地避免丢包损失,额外的帮助也同样重要。 1.3? 基于优先级的流控引起的队头阻塞 PFC是一种避免丢包的技术,但这一技术应该作为最后的手段使用。当交换机的某一个出口发生拥塞时,数据被缓存到备份里,并同时调用PFC。由于PFC会阻止特定等级的所有流量,所以流向其他端口的流量也有可能会被阻隔,这种现象被称为队头阻塞。为了避免队头阻塞,很有必要去尽早识别引起拥塞的流,并提供针对流特征(一般引起拥塞的流通常是大象流)的拥塞缓解技术。 队头阻塞可能会引起上游的额外阻塞。由于PFC隔离了所有流,包括那些发往没有拥塞路径的流。这使得所有流必须在上游交换机处排队,产生的队列延时反过来又会引起上一个上游交换机的拥塞。如果上游交换机的缓存被填满,一个新的PFC信息会被调用并发送到网络,循环往复,造成更多的队头阻塞和拥塞现象,这被称为拥塞扩散。 1.4? 多打一场景下的拥塞 CLOS架构在未来数据中心新场景下存在丢包、时延、吞吐等多方面的挑战,这些挑战主要来自many-to-one流量模型和all-to-all流量模型。流量模型many-to-one有时候也被称为Incast流量模型。在高度并行的云应用中,Incast是一个很自然发生的现象,它被证明是数据中心大部分丢包产生的原因。 图2是many-to-one流量模型示例。在这个示例中,leaf1、leaf2、leaf3 和 spine1、spine2、spine3形成一个无阻塞的Tier-2 CLOS网络。流量从server1到server5、从server7到server5、从server9到server5,形成一个many-to-one

文档评论(0)

宜品文库 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档