本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。
 
 
 
  熵速率 (entropy rate)
 
 定义:一个平稳的时域离散随机过程的熵速率 (entropy rate) 定义为
 
 
     H=n→∞limH(Xn∣X1,X2,…,Xn−1)
 
 具有记忆性的信源的熵速率定义为
 
 
     H=n→∞limn1H(X1,X2,…,Xn)
 
  
  Example 两个二进制随机变量 
     X 和 
     Y , 其联合分布为 p(X=Y=0) = p( X=0, Y=1) = p( X=Y=1) = 1/3 。
 
  计算 
     H(X), 
     H(Y), 
     H(X∣Y), 
     H(Y∣X) , and 
     H(X,Y) 。
 
  Solution:
 
  
     p(X=0)=p(X=0,Y=0)+p(X=0,Y=1)=32p(X=1)=p(X=1,Y=0)+p(X=1,Y=1)=31p(Y=0)=p(X=0,Y=0)+p(X=1,Y=0)=31p(Y=1)=p(X=0,Y=1)+p(X=1,Y=1)=32H(X)=31log3+32log23=0.9183H(Y)=31log3+32log23=0.9183H(X,Y)=∑i=1np(X,Y)log(X,Y)=log3=1.585H(X∣Y)=H(X,Y)−H(Y)=0.6667H(Y∣X)=H(X,Y)−H(X)=0.6667
 
 
 
  各类熵的关系
 
  
  -  
条件熵不大于信息熵。熵的不增原理: 
      H(Y/X)≤H(Y)
   
  -  
联合熵不大于个信息熵的和,即
 
      H(X1X2…XN)≤∑i=1NH(Xi)
 仅当各 
      Xi 相互独立时, 等号成立。
   
  -  
      H(XY)=H(X)+H(Y∣X)=H(Y)+H(X∣Y)
   
  -  
      H(X)≥H(X∣Y);H(Y)≥H(Y∣X)
   
 
 
 参考文献:
 
  
  - Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  
  - Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  
  - 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  
  - 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
  
 
 
 
         
        
            【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
                
cloudbbs@huaweicloud.com
                 
            
        
        
        
        
        
        
评论(0)