用于网络互连点的双向区分服务技术方案.docVIP

用于网络互连点的双向区分服务技术方案.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
用于网络互连点的双向区分服务技术方案

用于网络互连点的双向区分服务技术方案 杨国良1,张光昭2 中山大学信息科学与技术学院 广州 510275;2.中国电信股份有限公司广州研究院 广州 510630) 摘要 在网络内部,DiffServ可以提供很好的QoS保障,但在跨运营商的情况下,只能提供出方向的保障。本文提出一种新的双向区分服务技术方案——Bi-DiffServ,可以用于各运营商网络之间的互连点上,为重要流量提供时延和带宽的保障。通过仿真和现网实验证明,该方案简单、高效,能明显改善重要流量的时延、带宽等网络服务质量。 关键词 域间服务质量;双向区分服务;网络互连;流量  1 引言 Internet发展至今,已经和人们的生活密切相关,人们的工作、学习和娱乐越来越离不开网络。虽然网络规模在不断扩张,但仍然赶不上流量的增长速度,网络拥塞随处可见。如果拥塞发生在网络内部,可以采用DiffServ(differenciated service)技术为重要流量提供QoS保障。如果拥塞发生在与其他运营商网络互连点上,仍然采用DiffServ技术的话,则要求运营商之间必须相互合作,但事实上这是很难实现的,因为每个运营商对重要用户和关键应用的定义都不尽相同。虽然现有文献已经给出了不少域间QoS解决方案[1],但都因为实现复杂未能被网络运营商接受。本文提出一种用于网络互连点的、简单高效的双向区分服务方案(Bi-DiffServ),该方案使运营商可以在网络互连点上为自己的重要用户和关键应用提供出方向和入方向的QoS保障,而不需要其他运营商做任何配合。 2 QoS指标 对某一时间段内(2007年9月1日至3日)中国电信ChinaNet与其他运营商网络互连链路上所承载业务流量进行监测,发现在出境流量中,P2P下载占42.16%,P2P流占23.65%,普通的TCP占8.22%,普通的UPD占5.75%。在入境流量中,P2P下载占39.65%,P2P流占21.23%,Web占20.82%,普通的TCP占8.93%,普通的UPD占5.92%。网络上绝大部分应用都是基于TCP,TCP流量占总流量的95%。 TCP对时延和带宽较为敏感,至于抖动和丢包的影响基本可以通过TCP的重发机制和上层应用的平滑机制来屏蔽,因此下面重点分析影响时延和带宽的主要因素。 2.1 时延 时延包括路由查找时间、内部交换时间、排队等待时间、串行化时间和链路上的传播时间[2],其中只有排队等待时间随流量变化。在低速链路上,Internet流量具有自相似特征[3],但在高速链路(如2.5 Gbit/s)上,只要不拥塞,随着流量的增加,流量的特性逐渐趋向Poisson[4]。据此,在OPNET仿真平台上,采用重叠分形点过程(Sup-FRP,Hurst=0.9)产生自相似流量和采用Poisson过程产生流量,分析2.5 Gbit/s和10 Gbit/s POS链路的平均排队等待时延与链路利用率(均指链路的物理带宽利用率)的关系,得到的仿真结果如图1所示。 通过实验发现,不管是Poisson模型还是Sup-FRP模型,得到的结果都比较接近。两种模型下,时延随着流量的增加而增大,在链路利用率较低的情况下,时延随流量缓慢增加,当链路利用率超过93%时,时延随流量迅速增加,呈现雪崩效应。另外,观测中国电信ChinaNet骨干链路发现:当链路利用率低于93%时,时延基本没有变化;但当利用率超过93%时,时延迅速增大。可见,仿真结果与实际测量的变化规律是一致的,时延随链路利用率变化曲线的拐点都在93%左右。由此得出结论1:对于2.5 Gbit/s以上的高速POS链路,只要链路利用率低于93%,其排队等待时延很小,可以忽略。 2.2 带宽 一个应用所分到的传输带宽与自身的流量控制机制有关。当一条链路上同时存在多条TCP连接时,带宽分配变得复杂。因此,有必要通过OPNET仿真平台研究TCP连接之间如何竞争带宽。 模拟在瓶颈链路上分别出现多个用户(每个用户占用一条TCP连接),其中包括重要用户和普通用户,测量重要用户所分到的有效带宽比例,得到的仿真结果如图2所示。从图2的曲线可以看出,重要用户所获得的带宽与瓶颈链路上的TCP连接数成反比,与接入带宽无关。 由此得出2个结论,一是TCP连接之间具有平分可用带宽的特性(结论2),二是TCP连接发送流量的大小基本上取决于瓶颈链路上的可用带宽(结论3)。以中国电信ChinaNet与其他运营商网络互连的链路为例,一条10 Gbit/s链路上的TCP连接数大概是400万,即使只有5%的TCP连接同时在传数据,每条TCP连接所分得的带宽才6 Kbyte/s。以这样的速度浏览Google主页要5 s,浏览Yahoo主页要50 s,效果难以令人满意。 3 双向区分服务技术方案 由结论1~3可知,保障网络服

您可能关注的文档

文档评论(0)

cgtk187 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档