- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
1、 1、信息论的三大要素是: 信源;信道;信
宿
2、 2、一个随机事件的不确定度是指:
自信息量
3、某事件发生的概率是 0.5 ,则这个事件的信息量是:
1bit 。
3、 4、编码调制的两条基本途径是: 概率
均化;解除相关性
5、一个全损离散信道的信道容量是: 0bit/ 符
号 。
6、已知一个离散信源有 8 个符号,每个符号出现的概
率均一样,则该信源的信源熵是: log 8bit / 符号
7、信息表达可通过哪三层实现: 消息;信息;
信号
8、(N、K)线性码的任意一个码字 C 与校验矩阵 H的
关系是:
CH T
0
(1) 1948 年,美国数学家
香农
发表了
题为“通信的数学理论”的长篇论文,从而创立了信息论。
(2)
必然事件的自信息是 0
。
(3)
离散平稳无记忆信源 X的 N次扩展信源的熵等
于离散信源 X 的熵的 N 倍
。
4) 对于离散无记忆信源,当信源熵有最大值时,满足条件为 __信源符号等概分布 _。
5) 若一离散无记忆信源的信源熵 H(X)等于 2.5 ,对信源进行等长的无失真二进制编码,则编码长度至
少为3 。
(6) 对于香农编码、 费诺编码和霍夫曼编码, 编码
方法惟一的是 香农编码 。
7) 已知某线性分组码的最小汉明距离为 3,那么这组码最多能检测出 _2_______个码元错误,最多能纠正 ___1__个码元错误。
8) 设有一离散无记忆平稳信道,其信道容量为
C,只要待传送的信息传输率 R__小于 ___C(大于、小于或者等于),则存在一种编码, 当输入序列长
度 n 足够大,使译码错误概率任意小。
9) 平均错误概率不仅与信道本身的统计特性有关,还与 ___译码规则 ____________和___编码方
___有关
1、 在认识论层次上研究信息的时候, 必须同时考虑
到 形式、含义和效用 三个方面的因素。
2、 1948 年,美国数学家 香农 发表了题为“通信
的数学理论”的长篇论文,从而创立了信息论。
3、 按照信息的性质,可以把信息分成 语法信息、
语义信息和语用信息 。
4、 按照信息的地位,可以把信息分成 客观信息和
主观信息 。
5、 人们研究信息论的目的是为了 高效、可靠、安
全 地交换和利用各种各样的信息。
6、 信息的 可度量性 是建立信息论的基础。
7、 统计度量 是信息度量最常用的方法。
8、 熵 是香农信息论最基本最重要的概念。
9、 事物的不确定度是用时间统计发生 概率的对数
来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
17、离散平稳无记忆信源 X 的 N次扩展信源的熵等于离散信源 X的熵的 N 倍 。
18、离散平稳有记忆信源的极限熵,
H
lim H ( X N / X1 X 2
XN 1)
。
N
20、一维连续随即变量 X 在[a ,b] 区间内均匀分布时,其信源熵为 log 2(b-a ) 。
22、对于限峰值功率的 N维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源, 当概率密度 高
斯分布 时,信源熵有最大值。
24、对于均值为 0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值 P 和信源的熵功率
P 之比 。
25、若一离散无记忆信源的信源熵 H(X)等于 2.5 ,对信源进行等长的无失真二进制编码,则编码长度至
少为3 。
26、m元长度为 ki ,i=1 ,2,···n 的异前置码存在的
n
m
ki
1
充要条件是: i 1 。
27、若把掷骰子的结果作为一离散信源,则其信源熵
log 26 。
28、同时掷两个正常的骰子,各面呈现的概率都为
1/6 ,则“3 和 5 同时出现”这件事的自信息量是 log 218
1+2 log 23)。
30、一副充分洗乱的扑克牌 (52 张),从中任意抽取 1 张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 log 2 52 。
31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。
32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。
33、具有一一对应关系的无噪信道的信道容量
您可能关注的文档
最近下载
- Unit 4 The Earth 大单元教学设计 2025沪教牛津七年级英语上册.docx
- 江苏开放大学管理学060935过程性考核作业(二).docx VIP
- 2025在线网课《信息检索与科技写作( 理大)》单元测试考核答案.pdf VIP
- power up1英语书单词表.docx VIP
- 4.2按劳分配为主体+多种分配方式并存课件(共18张PPT)中职高教版(2026)中国特色社会主义.pptx VIP
- 钢拱架支护操作规程.docx VIP
- 镁法脱硫技术方案.docx VIP
- 人体生物电现象.ppt VIP
- JB T 10192-2012小型焚烧炉技术条件.docx VIP
- 02R111 小型立、卧式油罐图集(OCR).pdf VIP
文档评论(0)