本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。
信源符号自信息的数学期望为信源的平均信息量——信息熵
H(X)=E(I(Xi))=−i=1∑Npilogpibit/symbol
注意:
H(X) 是一个数, 不是随机变量.
Example 请计算下述离散无记忆二进制信源的信息熵。
(Xp)=(0p11−p)
Solution
H(X)=−plogp−(1−p)log(1−p)
信息熵的物理含义
1.信息熵H(X)表示信源输出后,每个消息(符号)所提供的平均信息量;
2.信息熵H(X)表示信源输出前,信源的平均不确定性;
3.用信息熵H(X)来表征变量X的随机性。
注: 信息熵不等于平均获得的信息量(仅是能提供的信息量)。一般情况下获得的信息量是两熵之差,而不是信息熵本身(获得的还是需要根据实际计算)。
Example:
甲地天气预报,
[Xp(X)]=[晴21阴21雨81雪81]
乙地天气预报
[Yp(Y)]=[ 晴 87 雨 81]
求:两地天气预报各自提供的平均信息量
解:
-
H(X)=−21log21−41log41−81log81−81log81=1.75 比特/符号
-
H(Y)=−87log87−81log81=0.544 比特/符号
- 甲地提供的平均信息量大于乙地。
甲、乙地天气预报为两极端情况:
[Xp(x)]=[ 晴 1 阴 0 雨 0 雪 0][Yp(y)]=[ 晴 1 雨 0]
H(X)=−1log1−0log0−0log0−0log0=0比特/符号
H(Y)=−1log1−0log0=0 比特/符号
limεlogε=0
- 信源是确定信源, 所以不存在不确定性, 信息熵等于零。
甲、乙地天气预报为两极端情况:
[Xp(x)]=[ 晴 1/4 阴 1/4 雨 1/4 雪 1/4][Yp(y)]=[ 晴 1/2 雨 1/2]
H(X)=−log41=2 比特/符号
H(Y)=−log21=1 比特/符号
- 这种情况下,信源的不确定性最大,信息熵最大。
- 甲地比乙地提供更多的信息量。因为甲地可能出现的消 息数多于て地可能出现的消息数, 不确定性更大。
结论: 由上可知,信源熵大于等于0(若信源输出为确定符号)而小于等于log(N)(信源输出的不确定性最大)。
0≤H(X)≤log(N)
其中N为信源字符集元素的个数
Example 某信号带宽为4000Hz ,以奈奎斯特速率抽样。假设其抽样序列可以建模成一个字符集为A={-2,-1,0,1,2} 的DMS,相应的概率为{1/2,1/4,1/8,1/16,1/16},求信源的速率(b/s)
H(X)=21log2+41log4+81log8+2×161log16=815bit/symbol
Rb=2×4000×H(X)=15Kbit/sec
其中
Rb 为信息速率。
注:奈奎斯特抽样速率为
2W。信息速率Rb=平均信息量H(X)×码元率B(波特率),单位为bit/s。
参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
评论(0)