信息论与编码课件第二章.ppt
《信息论与编码课件第二章.ppt》由会员分享,可在线阅读,更多相关《信息论与编码课件第二章.ppt(94页珍藏版)》请在三一办公上搜索。
1、第二章 信源和信息熵,离散信源的信息熵,连续信源的信息熵,信源分类和描述,第二章 作业,教材第59页62页2.1,2.2,2.3(1)(2),2.4,2.8,2.13,2.14,2.16,信源分类和描述,信源分类和描述,=,离散信源,连续信源,=,信源分类和描述,单符号信源 X,符号序列信源 XN(N次扩展信源),信源分类和描述,无记忆信源,有记忆信源,信息的特性,事件(消息)的信息量大小与其不确定度(概率)有关事件概率越小,信息量越大确定性事件的信息量为零,不可能事件的信息量为无穷大信息量具有可加性,离散信源符号的信息量,信息量定义,信息量单位,对数的底a=2时,信息量单位为比特(bit)对
2、数的底a=e时,信息量单位为奈特(nat)对数的底a=3时,信息量单位为铁特(Tet)对数的底a=10时,信息量单位为哈特(Hart),-,离散信源符号的信息量,P(x),I(X)=log2(p),离散信源的信息熵(Entropy),信息熵定义(信息量的统计平均或者说数学期望),信息熵单位,对数的底a=2时,信息熵单位为比特/符号(bit/符号)对数的底a=e时,信息熵单位为奈特/符号(nat/符号)对数的底a=3时,信息熵单位为铁特/符号(Tet/符号)对数的底a=10时,信息熵单位为哈特/符号(Hart/符号),离散二元信源的信息熵,离散信源信息熵的含义,H(X)表示信源的平均不确定度平均
3、信息量H(X)表示信源的随机性 H(X)表示信源输出每个符号所提供的平均信息量H(X)表示信宿所能获得的最大信息量,条件自信息量与条件熵,条件自信息量定义,条件熵定义(条件自信息量的统计平均),=,=,联合自信息量与联合熵,联合自信息量定义,联合熵定义(联合自信息量的统计平均),=,自信息量、条件信息量、联合信息量三者之间的关系,当事件x 和事件y 相互独立时有,信息熵、条件熵、联合熵三者之间的关系,当集合X 和集合Y 相互独立时有,例题 有两个二元随机变量X和Y,它们的联合概率为并定义另一随机变量Z=XY(一般乘积),试计算:熵 H(X)、H(Y)、H(Z)、H(X,Z)、H(Y,Z)、H(
4、X,Y,Z)条件熵 H(X|Y)、H(X|Z)、H(Z|X)、H(Z|Y)、H(Y|Z)、H(Y|XZ)、H(Z|XY)(3)互信息 I(X;Y),I(X;Z),I(Y;Z);I(X;Y|Z),I(Y;Z|X)和I(X;Z|Y),解:(1)根据 和 的联合概率分布,分别求得 X、Y 和 Z 的边沿概率分布如下:0 1 0 1 0 1 7/8 1/8,和 以及 和 的联合概率分布函数分别为:0 1 0 1 0 1/2 0 0 1/2 0 1 3/8 1/8 1 3/8 1/8,、和 的联合分布函数为,根据上述概率分布函数,分别求得:,(2)根据(1)得到的联合概率分布和边沿概率分布函数,求得如下
5、条件概率分布 0 1 0 1 0 1/4 3/4 0 4/7 0 1 3/4 1/4 1 3/7 1 0 1 0 1 0 1 3/4 1/4,又因为因此,所以,(3),熵函数 H(p)的性质,信息熵 H(X)的函数表达H(p),(1)对称性,(2)非负性(离散信源),(3)扩展性,熵函数 H(p)的性质,(4)确定性,(5)可加性,(6)极值性,熵函数 H(p)的性质,熵函数 H(p)的性质,(7)上凸性,小结:,信息熵 信息论中的最基础的基本概念 对随机变量不确定性的最好的度量 用来描述信源的信息特性,互信息量的提出与定义,互信息量提出,互信息量定义,互信息量=(收到消息之前关于某事件的不确
6、定度)-(收到消息之后关于该事件的不确定度)=消息不确定度的减小量,设某班学生在一次考试中获优(A)、良(B)、中(C)、及格(D)和不及格(E)的人数相等。当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息?,例,解:令P(x)表示“得到老师通知前甲的成绩的不确定性(概率)”P(x|y)表示“得到老师通知后甲的成绩的不确定性(概率)”,则 P(x)=1/5,P(x|y)=1/4,总的需要信息,剩余信息,获得信息,条件互信息量与联合互信息量,条件互信息量定义,联合互信息量定义,自信息量与互信息量的区分(表达方式和含义上),信息量,互信息量,自信息量与互信
7、息量的联系,平均互信息量,平均互信息量定义,平均条件互信息量定义,平均联合互信息量定义,(1)非负性,(2)互易性,(3)极值性,平均互信息量 I(X;Y)的性质,不具有非负性,(4)I(X;Y)与信息熵的关系,(5)凸函数性,平均互信息量 I(X;Y)的性质,当 p(y|x)给定时,I(X;Y)是 p(x)的上凸函数。当 p(x)给定时,I(X;Y)是 p(y|x)的下凸函数。,I(X;Y)与信息熵的关系,I(X;Y)=0,集合X与集合Y 相互独立的情况,I(X;Y)与信息熵的关系,H(X|Y),H(Y|X),H(X|Y)含糊度或损失熵 H(Y|X)散布度或噪声熵,I(X;Y)与信息熵的关系
8、,集合X与集合Y 完全相关的情况,I(X;Y)与信息熵的关系,H(X|Y),I(X;Y)的凸函数性,I(X;Y)的凸函数性,I(X;Y)的凸函数性,当 p(y|x)给定时,I(X;Y)=f p(x)是上凸函数。,当 p(x)给定时,I(X;Y)=f p(y|x)是下凸函数。,C 信道容量,R(D)率失真函数,小结,互信息量 信息论中的另一个基本概念(差值)对两个随机变量之间统计依存性的信息度量 用来描述信道特性和信源的压缩特性,信息熵 信息论中的最基础的基本概念 对随机变量不确定性的最好的度量 用来描述信源的信息特性,信息不增性原理(定理2.4),当且仅当p(z|xy)=p(z|y)时,等号成
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 课件 第二
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5230800.html