TCPIP拥塞控制分析及的案例的研究.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
TCPIP拥塞控制分析及的案例的研究

TCPIP拥塞控制分析及的案例的研究   【摘要】 拥塞容易造成传输延迟和吞吐量等QoS性能指标降低,导致传输性能和网络资源利用率下降,从而无法提供有效的QoS保证。为了给用户提供高效、公平的网络资源分配,拥塞控制是电信运营商必须要解决的问题之一。文章分析了拥塞控制的原理、TCP/IP拥塞的常用解决方案,最后对网络拥塞给出了具体案例研究并提出了相应的对应策略。   【关键词】 拥塞控制 QoS 电信运营商 TCP/IP   随着计算机网络的快速发展,人们对网络资源的需求越来越高,为了提高网络品质,提高用户感知,改善网络质量已成电信运营商市场突破的重要途径之一。尤其是近年来如语音、图像等多媒体流在网络上的大量应用,解决网络拥塞也成了众多学者研究的问题之一。文章概述了网络拥塞控制的原理、典型的TCP/IP拥塞控制解决方法等知识,重点对网络拥塞案例进行了分析研究。   一、拥塞控制的原理   在某段时间,若对网络中的某一资源的需求超过了该资源所能提供的可用部分,网络的性能就要变化,这种情况叫做拥塞[1]。网络拥塞往往是由许多因素引起的,简单的提高节点处理机的速度或者扩大结点缓存的存储空间并不能解决拥塞问题。当某个结点缓存容量扩展到非常大,于是凡到达该结点的分组均可在结点的缓存队列中排队,不受任何限制。由于输出链路的容量和处理机的速度并未提高,因此在这队列中的绝大多数的分组在排队等待时间会大大增加,结果上层机制只好把分组进行重传。因此,拥塞往往是指整个系统的各个部分不匹配,只有各个部分平衡了,问题才会得到解决。   二、TCP/IP拥塞解决方法   因特网建议标准RFC2581定义了进行拥塞控制的四种算法,即慢开始(Slow-start),拥塞避免(Congestion Avoidance),快重传(Fast Restrangsmit)和快回复(Fast Recovery)[2]。   在文献【3】中,作者提到了一种基于接收阈值的容延网络拥塞控制方法,该机制独立于节点所运行的转发路由算法,不影响路由算法对中继节点的选择,具有很好的普适性,可以有效降低节点拥塞。在文献【4】中,通过对基于链路的AQM协议和显式拥塞控制机制研究,较好的解决了网络延时高的情况下链路高利用低的问题,同时提高了系统的QoS性能。文献【5】在VCP协议的基础上,提出了一个扩展的可变结构拥塞控制协议EVCP(Extended VCP),在平均延时情况下可以有效的提高网络吞吐量。   拥塞现象是发生在通信网络等复杂网络上的一种典型的动态行为,研究路由策略的优化算法问题是众多学者要解决的重要课题之一。   三、网络拥塞案例分析及研究   3.1问题描述   中山某大客户因业务发展需要,开通了广东中山至美国旧金山的一条10M的电路,本地通过OSN500传输光端机接入,客户在的使用过程中发现上行速率严重不达标,后期换成Metro 1000后情况有较大改善。本文接下来从此案例出发,分析研究网络拥塞对实际网络测速的影响及相应的对应策略。   下图是测试环境图:   结论:在时延较大时(大于50ms), Metro1000上载速率会高于OSN500。   根据以上测试情况,引出两个问题:为什么测速带宽会随着时延增加而降低?为什么在同样的大时延条件下,Metro1000(EFS)单板测速会比OSN500(EFT8)高?   3.2原因分析   (1)从抓包信息得知,该测速网站是基于TCP协议进行文件传送测速的。TCP协议定义了一个拥塞窗口,如果发送端的已发送但未收到确认报文的数据超过拥塞窗口,则需要停止发送报文,等待接收端新的确认报文。   每TCP连接吞吐量计算公式可以按照以下公式进行计算[6]:   其中,RTT指Round-trip Time,是双向时延;cwnd指Congestion Window,是拥塞窗口大小。从公式得知,吞吐量与端到端往返时延RTT成反比,而缓存大小与RTT时间成正比。所以,随着时延的增加,测速的吞吐量是会逐步降低的。   (2)在时延一定的情况下要提高测速吞吐量,则需增加拥塞窗口(对于网络设备理解为设备缓存Buffer)。   为了链路利用率达到最大值,对网络节点的Buffer要求为:在网络空闲时吐出报文能够弥补TCP拥塞时降低的吞吐量。   从业内对Buffer的要求规则可知,Buffer的大小要求与网络时延有关:网络的时延越大,对缓存的要求就越高。在TCP流条目数越少对Buffer的要求越高。网络中越靠近用户的设备,接入用户数越多,因此对网络中接入设备的Buffer要求高于汇聚层与核心层设备。   以上所述,正是由于Metro1000 EFS(交换板)单板缓存比OSN500 EFT8(透传板)缓存大

文档评论(0)

3471161553 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档