《信息论基础熵》PPT课件.ppt
《《信息论基础熵》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《信息论基础熵》PPT课件.ppt(67页珍藏版)》请在三一办公上搜索。
1、熵、联合熵、条件熵,目标理解各种熵的概念;掌握离散信源各种熵的基本性质,有两个含义:,1、当事件发生前,表示该事件发生的不确定性;2、当事件发生后,标是该事件所提供的信息量,自信息量的单位取决于对数所取的底,若以2为底,单位为比特,以e为底,单位为奈特,以10为底,单位为哈特,通常取比特为单位,回顾(1),回顾(1),例1:设天气预报有两种消息,晴天和雨天,出现的概率分别为1/4和3/4,我们分别用 来表示晴天,以 来表示雨天,则我们的信源模型如下:,对一个信源发出不同的消息所含有的信息量也不同。自信息是一个随机变量,不能用它来作为整个信源的信息测度,信息熵具有以下两种物理含义:1、表示信源输
2、出前信源的平均不确定性2、表示信源输出后,每个符号所携带的平均信息量,熵的单位取决于对数所取的底,若以2为底,单位为比特/符号,回顾(2),熵是从整个集合的统计特性来考虑的,它从平均意义上来表征信源的总体特征。,说明,自信息量I(x1)和I(x2)只是表征信源中各个符号的不确定度,一个信源总是包含着多个符号消息,各个符号消息又按概率空间的先验概率分布,因而各个符号的自信息量就不同。所以自信息量不能作为信源总体的信息量。,平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把H(X)称为信源X的熵。熵是在平均意义上来表征信源的总体特性的,可以表征信源的平均不确定度。,说明,信息量则只
3、有当信源输出符号而被接收者收到后,才有意义,这就是给予接收者的信息度量,这值本身也可以是随机量,也可以与接收者的情况有关。某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,必有信源的熵值;这熵值是在总体平均上才有意义,因而是一个确定值,一般写成H(X),X是指随机变量的整体(包括概率分布)。,说明,作业相关,人口问题:在某个地区,一对夫妻只允许生一个孩子,可是这里所有的夫妻都希望能生个男孩传宗接代,因此这里的夫妻都会一直生到生了一个男孩为止,假定生男生女的概率相同问:(1)这个地区男孩会多于女孩吗?(2)一个家庭孩子的个数用离散随机变量X表示,计算X的熵 解:假定一个家庭里有k个女孩
4、,1个男孩,相应的概率是0.5k*0.5,因此女孩的平均数是,女孩的平均数与男孩的平均数相等。,习题相关,设离散无记忆信源其发生的消息为(202120130213001203210110321010021032011223210)(1)此消息的自信息是多少?(2)在此消息中平均每个符号携带的信息量是多少?,解:(1)因为离散信源是无记忆的,所以其发出的消息序列中各符号是统计独立的。因此,此消息的自信息就等于消息中各个符号的自信息之和!根据题意,可得,此消息中共有14个“0”符号,13个“1”符号,12个“2”符号,6个“3”符号,则得到消息的自信息是,习题相关,(2)此消息中共含45个信源符号
5、,这45个信源符号携带着8781比特信息量,则此消息中平均每个符号携带的信息量为,(202120130213001203210110321010021032011223210),注意:此值是此消息中平均每个符号携带的信息量,该离散无记忆信源平均每个符号携带的信息量,即信息墒,习题相关,新授课,联合熵与条件熵熵、联合熵与条件熵信息熵的基本性质,新授课,联合熵与条件熵熵、联合熵与条件熵信息熵的基本性质,信源发出序列中只有前后两个符号间有依赖关系:信源的概率空间:连续两个信源符号出现的联合概率分布为:,联合熵与条件熵,已知符号 出现后,紧跟着 出现的条件概率为:,由二维离散信源的发出符号序列的特点可
6、以把其分成每两个符号一组,每组代表新信源 中的一个符号。并假设组与组之间是统计独立的,互不相关的。,得到一个新的离散无记忆信源,其联合概率空间为:,联合熵与条件熵,根据(信息)熵的定义,可得:(1)联合熵,可以表征信源输出长度为2的平均不确定性,或所含有的信息量。,说明:联合熵是随机序列 联合离散符号集上的每个符号对 联合自信息量的数学期望,联合熵与条件熵,(2)条件熵,则:,联合熵与条件熵,随机序列 的联合符号集上的条件自信息量的数学期望,例题,已知二维随机变量 的联合概率分布 为 求,解:,由,又由,所以,新授课,联合熵与条件熵 熵、联合熵与条件熵信息熵的基本性质,H(X,Y)H(X)H(
7、YX)H(X,Y)H(Y)H(XY),证明:,熵、联合熵与条件熵,所以,熵、联合熵与条件熵,证明:由,熵、联合熵与条件熵,H(XY)H(Y)H(XY),所以,熵、联合熵与条件熵,例 某一二维离散信源,其发出的符号只与前一个符号有关,即可用联合概率P(xi,xj)给出它们的关联程度,如下表所示,求信源的熵H(X)、条件熵H(X2|X1)和联合熵H(X1,X2)。,解:根据概率关系可计算得条件概率P(xj|xi),计算 结果列表如下:,得:,H(X):表示信源中每个符号的平均信息量(信源熵)。H(Y):表示信宿中每个符号的平均信息量(信宿熵)。H(X|Y):表示在输出端接收到Y的全部符号后,发送端
8、X尚存的平均不确定性。这个对X尚存的不确定性是由于干扰引起的。信道疑义度(损失熵,含糊度)H(Y|X):表示在已知X的全部符号后,对于输出Y尚存的平均不确定性。信道散布度(噪声熵)H(XY):表示整个信息传输系统的平均不确定性(联合熵)。,熵的意义(对通信系统),熵之间的相互关系H(X,Y)=H(X)+H(Y|X)H(X,Y)=H(Y)+H(X|Y)H(X)=H(X|Y)H(Y)=H(Y|X)H(X,Y)=H(X)+H(Y),熵、联合熵与条件熵,新授课,联合熵与条件熵 熵、联合熵与条件熵信息熵的基本性质,新授课,联合熵与条件熵 熵、联合熵与条件熵信息熵的基本性质,对称性确定性非负性扩展性可加性
9、强可加性递增性上凸性极值性,1、对称性:H(P)的取值与分量 p1,p2,pq的顺序无关。说明:从数学角度:H(P)=pi log pi 中的和式满足交换率;从随机变量的角度:熵只与随机变量的总体统计特性有关。,信息熵的基本性质,一个例子:,信息熵的基本性质,2、确定性:H(1,0)=H(1,0,0)=H(1,0,0,0)=0性质说明:从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号则是几乎不可能出现,那么,这个信源是一个确知信源,其熵等于零。,信息熵的基本性质,3、非负性:H(P)0说明:随机变量X的概率分布满足0pi1,当取对数的底大于1时,log(pi)0,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论基础熵 信息论 基础 PPT 课件
链接地址:https://www.31ppt.com/p-5464274.html