本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。
信息冗余度(多余度、剩余度)
在信息论中,信息冗余是传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值。
数据压缩是一种用来消除不需要的冗余的方法,校验和是在经过有限信道容量的噪声信道中通信,为了进行错误校正而增加冗余的方法。
信息冗余度一译"信息剩余度"。是指一定数量的信号单元可能有的最大信息量与其包含的实际信息量之差。通常用R表示。为信号的实际信息量,Imax为同样数量的信号单元可能有的最大信息量。会使传信绩效降低,但能提高通讯的抗干扰能力。
-
表示信源在实际发出消息时所包含的多余信息。
-
冗余度:
-
信源符号间的相关性。
-
信源符号分布的不均匀性。
-
log2N=H0(X)≥H1(X)≥H2(X)≥⋯≥H∞(X)
N=H0(X):等概率分布时信源熵
N=H1(X):相互独立
N=H1(X):两者有关系
对于有记忆信源, 极限熵为
H∞(X)=N→∞limH(XN/X1⋯XN−1)=N→∞limN1H(X1⋯XN)
这就是说需要传送某一信源的信息, 理论上只需要传送
H∞(X) 即可。但这必须掌握信源全部概率统计特性, 这显然是不现实的。实际上, 只能算出
Hm(X) 。那么与理论极限值相比, 就要多传送
Hm(X)−H∞(X)
为了定量地描述信源的有效性, 定义: 信息效率
η=Hm(X)H∞(X)
冗余度
γ=1−η=1−Hm(X)H∞(X)
冗余度
由于信源存在冗余度,即存在一些不必要传送的信息,因此信源也就存在进一步压缩其信息率的可能性。
信源冗余度越大,其进一步压缩的潜力越大。这是信源编码与数据压缩的前提与理论基础。
例:英文字母:
英文字母出现的概率如下表(含空格)
英文字母出现概率

若各个字母独立等概, 则信息熵
H0=log227=4.76bit/sym
按照表计算独立不等概的信息熵
H1=−∑i=127pilogpi=4.03bit/sym
若只考虑一维相关性, 有
H2=3.32bit/sym , 进一步考虑二维相关性, 有
H3=3.01bit/sym …
香农推断:
H∞≅1.4bit/sym
- 从而:
η=29%,γ=71%

参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
评论(0)