暨南大学 信息论与编码 第2章-2-XSJ.pptVIP

  • 10
  • 0
  • 约6.01千字
  • 约 50页
  • 2017-03-09 发布于浙江
  • 举报
信息论与编码 信源与信息熵 第二章 2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度 信源的分类 离散信源 指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。 信源的描述 一个离散信源发出的各个符号消息的集合为: 马氏链的基本概念 符号 状态 例2-2:有一个二元二阶马尔可夫信源,其信源符号集为{0,1},已知符号条件概率: p(0|00) = 1/2 p(1|00)=1/2 p(0|01) = 1/3 p(1|01)=2/3 p(0|10) = 1/4 p(1|10)=3/4 p(0|11) = 1/5 p(1|11)=4/5 求: ⑴信源全部状态及状态转移概率 ⑵画出完整的二阶马尔可夫信源状态转移图。 ⑶求平稳分布概率 稳态分布概率 离散信源熵和互信息 问题: 什么叫不确定度? 什么叫自信息量? 什么叫平均不确定度? 什么叫信源熵? 什么叫平均自信息量? 什么叫条件熵? 什么叫联合熵? 联合熵、条件熵和熵的关系是什么? 离散信源熵和互信息 问题: 什么叫后验概率? 什么叫互信息量? 什么叫平均互信息量? 什么叫疑义度? 什么叫噪声熵(或散布度)? 数据处理定理是如何描述

文档评论(0)

1亿VIP精品文档

相关文档