智能运输系统概论第5章.pptVIP

  1. 1、本文档共40页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
智能运输系统概论第5章

* * * * * * * * * * * * * 信源编码,解决的是数据传输的有效性问题,即通过对信源的处理,力求用最少数码传递最大信息量,使信号更适宜传输。信源编码的一个主要目的就是要解决数据的压缩问题,即以最少的数码表示信源所发的信号,减少容纳给定消息集合或数据采样集合的信号空间,其中信号空间是指某信号集合所占的空间域、时域和频域空间。 近代信源编码的理论与方法,主要也是以压缩数字编码的数码率为目标。因此在今天,“数据压缩”与“信源编码”已是两个具有相同含义的术语了。 信源编码的理论依据 5.3.2 信源编码的理论基础 5.3.2 信源编码的理论基础 对于一个信源而言,它既可以送出事件a1,也可以送出别的事件ai。因此从统计平均观点来看,它所含有的信息量就是平均信息量的概念。借用热力学的名词,把它叫做熵(Entropy)。因此,若信源的概率模型写为: 其中, 为信源的字母集。则该信源熵可定义为:各事件不肯定性的数学期望,即: 熵的意义 5.3.2 信源编码的理论基础 对于一个信源而言,它既可以送出事件a1,也可以送出别的事件ai。因此从统计平均观点来看,它所含有的信息量就是平均信息量的概念。借用热力学的名词,把它叫做熵(Entropy)。因此,若信源的概率模型写为: 其中, 为信源的字母集。则该信源熵可定义为:各事件不肯定性的数学期望,即: 熵的意义 5.3.2 信源编码的理论基础 其中, 可以证明 就是离散无记忆信源进行无失真编码时的基本极限。 根据编码定理,对于二进制系统,满足: 的编码方案一定存在。其中, 为平均码长。 当要求无损传送数据时,对于一个固定信源在二进制系统中由变长编码定理,满足 熵的意义 5.3.2 信源编码的理论基础 的编码方案一定存在。其中, 为概率已知的信源, 为信源的熵, 为编码后的平均码长, 为信源中第 个符号的码长, 为信源的总字符数。 熵的意义 熵有下式成立, 式中, 即为最大熵。 熵的最大性 5.3.2 信源编码的理论基础 信源只要不是等概率分布,就存在着数据压缩的可能性,而其基本途径就是改变原有的概率分布,使之逼近或达到等概率分布。 离散无记忆信源的冗余度寓于概率的非等分布之中。因此数据压缩的基本途径之一,就是改变信源的概率分布,以期尽可能达到等概率分布之目的,即统计编码。 数据压缩基本途径 5.3.2 信源编码的理论基础 编码效率 很清楚,只要 ,就表明信源编码后,仍有冗度存在。故还可得相对冗余度为: 可见,统计编码的实质问题就在于减低 , 以使 趋近于1, 趋近0。 5.3.3 车辆饱和度数据流的编码方案 城市车辆饱和度数据是指城市中同一时刻所有路段的车辆饱和度。当时间变化时,形成了一个时间序列,即车辆饱和度数据流。这一时间序列可以认为是一个随机过程。更确切地说,是一个马尔可夫随机过程,而交通量在总体上是符合正态分布的。 根据编码定理可知,平均码长 有一个下限(见5-4),任何编码得到的 如果小于 必然存在失真。即对概率已知的信源,任何编码的平均码长下限是已知的,若要找到更小的 ,就必须对信源进行变换,使变换后的信源熵值比原始信源的熵值更小。 5.3.3 车辆饱和度数据流的编码方案 若要平均码长 接近信源的熵 的前提是信源 的概率分布 已知。而使 接近 的算法之一就是霍夫曼算法,所得到的编码就是最优变长编码。 1)时变最优编码 霍夫曼编码 设某信源概率空间为: 首先,将消息符号按其出现概率大小排列,X 恰好是这种排列方式。然后分别把1和0分配给最后两个符号, 分配1, 分配0,再合并最后两项,即 5.3.3 车辆饱和度数据流的编码方案 霍夫曼编码 如果出现不按概率大小顺序排列,那么必须重新排序,使 。 依此类推,合并、建立新信源,最后可得各消息符号的码字。 霍夫曼编码是非续长码,消息符号出现概率最小时,分配了最长的码字,概率最大时分配了最短的码字,平均码长最短。因此,编码效率最高。 时变最优编码 5.3.3 车辆饱和度数据流的编码方案 霍夫曼编码 霍夫曼算法得到的平均码长不一定等于信源的熵值。例如:上列中,按公式(5-4)平均码长就等于: 根据公式(5-2)信源的熵值 为 编码效率为: 时变最优编码 5.3.3 车辆饱和度数据流的编码方案 路段饱和度数据的最优编码 对一天中所有时刻所有路段的车辆饱和度百分比值进行统计,就可以得到饱和度百分比的概率分布: 其中,

文档评论(0)

wyjy + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档