第七章保证服务量的方法.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第七章保证服务量的方法

Fig. 7.12. Resource reservation in packet-switched networks 资源预留 流量调节 必须保证各流必须满足他们声称的值 检查点在进入交换机时,包括 流量分类,选出需要的流 流量监管,保证每个流和它的QOS参数一直,一般适用漏桶或令牌桶算法 流量整形,平缓突发的流量 流量工程 结合路由进行资源预留 平衡所有网络设备的负载 使网络拥有最大的中性能,并保证QOS 流量工程 传统路由方法的不足 传统路由方法认为陆又是唯一的 流量工程 流量工程的思想 初始参数 网络特性,拓扑、交换机的性能、链路的带宽等 负载信息 Fig. 7.16. Offered load Fig. 7.17. Distribution of the load over the network — choosing routes for the traffic 流量工程 聚集流,将QOS参数一样的流汇聚在一起,降低计算的复杂性 为特定的流计算路由,保证路由上所有的资源利用率不超过阈值 集中的解决方法 分布的解决方法,利用改进的路由协议,如OSPF 第七章保证服务质量的方法 引言 影响QOS的特性 信息率、分组延迟、分组丢失 队列 上述特性与队列有关 交换机输入、输出接口都有队列 保障了网络的高效,引入了传输的不确定性 QOS的方法取得队列性能的折中 应用与QOS 三种应用的流量 信息率相对可预测 对延迟敏感 对分组的损毁和丢失敏感 应用与QOS 信息率相对可预测 流数据时可预测的(语音、视频) Fig. 7.2. Bursty traffic 应用与QOS 对延迟敏感,按敏感度排列 异步应用,例如电子邮件 交互应用,远程文本编辑,会话 等时应用,有一个对延时敏感的阈值,例如语音回放,超过100~150ms就必修丢弃分组 对延时过分敏感,如实时控制 应用与QOS 对分组的损毁和丢失敏感 出数字母和数字的应用,压缩的流媒体 ATM的流量类别 A 多媒体流 恒定比特率,对延迟敏感,面向连接 B 压缩多媒提留 可变比特率,对延迟敏感,面向连接 C 使用连接协议的计算机数据 可变比特率,弹性流量,面向连接 D 使用无连接协议的计算机数据 可变比特率,弹性流量,无连接 X:其他 队列分析 M/M/1模型 l = 1/T m = 1/b Queue l Server Request flow 队列分析 M/M/1模型 到达率:λ=1/T T两个请求到达之间的平均时间 间隔的平局偏差也等于T,标准偏差为T/T=1 时间间隔的分布符合泊松分布 Fig. 7.4. Distribution density of the input flow 到达间隔的分布,是突发流 队列分析 M/M/1模型 等待的平均时间 W=ρ*b(1- ρ ) 其中 b 单个请求的服务时间 μ=1/b 服务率 ρ=λ/μ 负载率 Fig. 7.5. Dependence of the average request waiting time on ? 队列分析 M/M/1模型 负载率ρ接近0,等待时间也接近0 队列分析 作为分组处理模型的M/M/1 队列分析 作为分组处理模型的M/M/1 结论 延时与负载率ρ有关 负载率ρ接近1是系统停止处理负载 负载率ρ约为0.5时队列还存在 如果使用重传机制,网络过载会造成网络完全瘫痪 避免负载率ρ超过0.9 队列分析 不同的突发强度对延迟的影响(网络仿真的结果 突发强度增加,延迟增加 QOS机制 低负载方式下运行 负载率不超过20%~30%,可以保证服务质量 缺点:没有发挥分组交换处理突发流量的优势 QOS机制 区分不同的服务类别 区分处理延迟敏感的流量和弹性流量 系统有两种延时,We和Ws 队列管理算法 输入超过处理能力时,分组会在队列中缓冲,不同的队列管理算法提供不同的服务效果 队列管理算法 FIFO 优点:简单 缺点:不能区分服务 队列管理算法 优先权排队 流量分类,源、目的地址,端口好,协议等 流量分类点,可以位于任何设备中,比较好的办法是位于网络边缘 Fig. 7.9. Priority queues 队列管理算法 优先权排队 保证了高优先权的流的延时 地优先权的流的服务质量降低,程度难于预测 适用于保证强度不大的实时流的延时 不适用于速率高的实时流量,如视频流 队列管理算法 加权排队 队列管理算法 加权排队 强所有类型的流提供末已确定的最小带宽 特定类型流量的负载率极大影响这一类型流量的延迟 只有发生拥塞,各个队列保持为满的状态,加权排队才能保证各流量之间的比例关系 加权公平队列,各流之间的权重一样 队列管理算法 混合排队算法 优先权排队保证了最高优先级的流量 加权排队平

文档评论(0)

yx118 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档