本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。
熵速率 (entropy rate)
定义:一个平稳的时域离散随机过程的熵速率 (entropy rate) 定义为
H=n→∞limH(Xn∣X1,X2,…,Xn−1)
具有记忆性的信源的熵速率定义为
H=n→∞limn1H(X1,X2,…,Xn)
Example 两个二进制随机变量
X 和
Y , 其联合分布为 p(X=Y=0) = p( X=0, Y=1) = p( X=Y=1) = 1/3 。
计算
H(X),
H(Y),
H(X∣Y),
H(Y∣X) , and
H(X,Y) 。
Solution:
p(X=0)=p(X=0,Y=0)+p(X=0,Y=1)=32p(X=1)=p(X=1,Y=0)+p(X=1,Y=1)=31p(Y=0)=p(X=0,Y=0)+p(X=1,Y=0)=31p(Y=1)=p(X=0,Y=1)+p(X=1,Y=1)=32H(X)=31log3+32log23=0.9183H(Y)=31log3+32log23=0.9183H(X,Y)=∑i=1np(X,Y)log(X,Y)=log3=1.585H(X∣Y)=H(X,Y)−H(Y)=0.6667H(Y∣X)=H(X,Y)−H(X)=0.6667
各类熵的关系
-
条件熵不大于信息熵。熵的不增原理:
H(Y/X)≤H(Y)
-
联合熵不大于个信息熵的和,即
H(X1X2…XN)≤∑i=1NH(Xi)
仅当各
Xi 相互独立时, 等号成立。
-
H(XY)=H(X)+H(Y∣X)=H(Y)+H(X∣Y)
-
H(X)≥H(X∣Y);H(Y)≥H(Y∣X)
参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
评论(0)