信息论导论 第2章课件.ppt
《信息论导论 第2章课件.ppt》由会员分享,可在线阅读,更多相关《信息论导论 第2章课件.ppt(73页珍藏版)》请在三一办公上搜索。
1、第2章 离散信源及其信息熵,武刚2012年3月,信息论导论,信息论导论-第2章,武刚,2,复习,信息的概念什么是信息?信息论的研究内容香农信息论单符号离散信源自信息量:比特、奈特、笛特,信息论导论-第2章,武刚,3,本章的两个主要问题,离散信源所发出的一条消息,它包含着多大的信息量? 从离散信源的整体出发,它的信息量又应该如何度量?,信息论导论-第2章,武刚,4,提纲,一、自信息量二、单符号离散信源的信息熵三、多符号离散信源及其信息熵,信息论导论-第2章,武刚,5,一、自信息量,最简单的信源?为给出定量度量信息的方法,先讨论最简单的信源:1、单符号离散信源如果信源每次发出的消息都是单一符号,而
2、这些符号的取值是有限或可数的,则称这种信源为单符号离散信源。例子:掷骰子、简单的天气气象如何描述这些事件?概率论?,信息论导论-第2章,武刚,6,一、自信息量:单符号信源模型(1),掷骰子这一单符号离散信源可表示为:,而某一天简单的天气气象这一单符号离散信源则可表示为:,信息论导论-第2章,武刚,7,一、自信息量:单符号信源模型(2),单符号离散信源的数学模型:预备知识联合概率条件概率,信息论导论-第2章,武刚,8,一、自信息量:定义,假设一个单符号离散信源,其输出被传递给信宿;设P(x1)最大、P(xn)最小,问题:输出哪条消息包含更多的信息,x1,还是xn?根据香农信息的概念消息中所包含的
3、不确定性的成分才是信息不确定性的成分越大,或者说出现的概率越小,信息量就越大;从这个意义上,输出xn包含更多的信息。这个量是多少,如何表示?,信息论导论-第2章,武刚,9,一、自信息量:定义(1),如果将离散信源输出xi 所包含的信息量用I(xi)来表示并将其称为xi 的自信息量,则其必须满足的条件是:, I(xi)与输出xi的概率相关;, I(xi)是P(xi)的减函数,且当P(xi) =1时I(xi) =0 。, I(xi)是P(xi)的连续函数;,因此,xi 的自信息量的定义为:,信息论导论-第2章,武刚,10,一、自信息量:定义(1),自信息量的定义:无量纲,根据对数的底来定义单位:当
4、对数底为2时,自信息量的单位为比特(bit, binary unit)对数底为e时,其单位为奈特(nat, nature unit)对数底为10时,其单位为哈特(Hart, Hartley)。目前的通信系统或其他信息传输系统大多以二进制为基础,因此信息量的单位以bit最为常用。,信息论导论-第2章,武刚,11,一、自信息量,以bit为单位的自信息量记为:3、自信息量的性质,I(xi)是非负值;,I(xi)是随机量;,I(xi)是P(xi)的单调递减函数。,信息论导论-第2章,武刚,12,一、自信息量,证明:本课件中定义,信息论导论-第2章,武刚,13,一、自信息量,例1:求掷骰子这一信源发出各
5、种消息所包含的自信息量。,解:该信源的数学模型为,信息论导论-第2章,武刚,14,一、自信息量,例2:求某一天简单的天气气象这一信源发出各种消息所包含的自信息量。,解: 该信源的数学模型为:,信息论导论-第2章,武刚,15,互信息量(简述),1、互信息量的定义2、互信息量的性质,信息论导论-第2章,武刚,16,互信息量:定义,两个随机事件X和Y,分别取值于信源、信宿发出的离散消息集合信源X的数学模型信宿Y的数学模型,a1,a2,a3,an,b1,b2,b3,bm,后验概率:P(ai/bj)先验概率:P(ai),信息论导论-第2章,武刚,17,互信息量,例2.1.2, 根据天气气象信源模型,观测
6、得到的信息是“今天不是晴天(y1)”问各消息与y1的互信息量,信息论导论-第2章,武刚,18,互信息量与自信息量的关系,I(x2; y1)与I(x2)及I(x2/y1) I(x2; y1)=I(x2)-I(x2/y1)I(xi; yj)=I(xi)-I(xi/yj) I(yj; xi)=?,互信息量等于自信息量减去条件自信息量,互信息量的内容留待第4章后续讨论,信息论导论-第2章,武刚,19,本章内容提纲,一、自信息量二、单符号离散信源的信息熵三、多符号离散信源及其信息熵,信息论导论-第2章,武刚,20,二、单符号离散信源的信息熵,自信息量:一个单符号离散信源发出各种消息所包含的信息量, 问题
7、:从该信源的整体出发,它的信息量又应该如何度量?,1、单符号离散信源的信息熵,如果将离散信源所有自信息量的数学期望用H(X)来表示并称其为信源的信息熵,也叫香农熵,信息熵的定义为:,信息论导论-第2章,武刚,21,二、单符号离散信源的信息熵,信息熵的单位是比特/符号(bit/symbol)。,信息熵是从整体出发对一个离散信源信息量的度量。,2、信息熵的性质和定理,H(X)的非负性;,信息论导论-第2章,武刚,22,二、单符号离散信源的信息熵,H(X)的上凸性;,H(X)的上凸性不作证明。,最大熵定理,何种单符号信源的熵最大?,信息论导论-第2章,武刚,23,二、单符号离散信源的信息熵,信息论导
8、论-第2章,武刚,24,二、单符号离散信源的信息熵,当信源中各离散消息以等概率出现时,可得到最大信源熵,其熵为:,信息论导论-第2章,武刚,25,信源熵的其他性质,扩展性随机变量中某个取值的概率趋于零时,两种情形(有、无这个变量)的熵相同确定性只要一个变量取值的概率为1,则熵为零可加性极值性多变量情形(后续讨论),信息论导论-第2章,武刚,26,二、单符号离散信源的信息熵,例1,求掷骰子这一信源的信息熵。,解:该信源的数学模型为,信息论导论-第2章,武刚,27,二、单符号离散信源的信息熵,解: 该信源的数学模型为:,例2,求某一天简单的天气气象这一信源的信息熵。,信息论导论-第2章,武刚,28
9、,复习,自信息量单符号离散信源的信息熵最大熵定理的证明及含义,信息论导论-第2章,武刚,29,二、单符号离散信源的信息熵,例3,已知信源,求信息熵并作出H(p)关于p的曲线。,当p=0时,H(p)=0,=0.25时,H(p)=0.811,=0.5时,H(p)=1,=0.75时,H(p)=0.811,=1时,H(p)=0,信息论导论-第2章,武刚,30,二、单符号离散信源的信息熵,信源熵的三种物理含义信源熵H(X)表示信源输出后,平均每个离散消息所提供的信息量;信源熵H(X)表示信源输出前,信源的平均不确定度;信源熵H(X)反映了变量X的随机性,信息论导论-第2章,武刚,31,主观价值与主观意义
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论导论 第2章课件 信息论 导论 课件
链接地址:https://www.31ppt.com/p-1569627.html