信息理论基础2信息的统计度量.ppt
《信息理论基础2信息的统计度量.ppt》由会员分享,可在线阅读,更多相关《信息理论基础2信息的统计度量.ppt(217页珍藏版)》请在三一办公上搜索。
1、2004-07-29,第1/103页,第2章 信息的统计度量,第2章,2.1 自信息量和条件自信息量2.2 互信息量和条件互信息量2.3 离散集的平均自信息量2.4 离散集的平均互信息量2.5 连续随机变量的互信息量和相对熵,2004-07-29,第2/103页,2.1 自信息量和条件自信息量,2.1.1 自信息量2.1.2 条件自信息量,2004-07-29,第3/103页,2.1.1 自信息量.1,今年冬天比夏天冷,今年冬天比夏天热,两则消息,很正常,在我的有生之年年年如此啊废话一般没有任何信息,是吗?太不正常了,在我的有生之年我还没遇到过老天爷发疯了么:难道外星人来了?彗星撞地球了?我发
2、疯了么:我没听错吧?我脑子有问题了么?你发疯了吧:散布妖言?,含有极其丰富的信息,2004-07-29,第4/103页,2.1.1 自信息量.2,信息量与消息的发生概率有关:越不可能的消息,包含的信息量越多;确定无疑的消息,包含的信息量为零,有一个比较简单的函数满足上述特性:,2004-07-29,第5/103页,2.1.1 自信息量.3,2004-07-29,第6/103页,2.1.1 自信息量.4,定理2.1.1 任意随机事件的自信息量定义为该事件发生概率的 对数的负值,?,自信息量没有单位,2004-07-29,第7/103页,2.1.1 自信息量.5,自信息量的单位,2004-07-2
3、9,第8/103页,2.1.1 自信息量.6,自信息量各单位之间的换算关系,使用的公式,2004-07-29,第9/103页,2.1.1 自信息量.7,同理可得,2004-07-29,第10/103页,2.1.1 自信息量.8,定理2.1.2 联合自信息量定义为,定理2.1.2是定理2.1.1的自然推广,2004-07-29,第11/103页,2.1.1 自信息量.9,例,一信息源会发出4个符号:0、1、2、3、4。这4个符号出现的概率分别为:,同时各个符号的出现都是独立的。,求:下面这个消息的自信息量:,2004-07-29,第12/103页,2.1.1 自信息量.10,此消息中0出现23次
4、,1出现14次,2出现13次,3出现7次。由于出现是独立的,因此出现此消息的概率为:,此消息的自信息量为:,2004-07-29,第13/103页,2.1.2 条件自信息量.1,自信息量定义的自然推广,2004-07-29,第14/103页,2.1.2 条件自信息量.2,例,设在一正方形棋盘上共有64个方格,如果甲将一枚棋子随意放在棋盘上的某一方格,且让乙猜测棋子所在的位置。(1)将方格按照顺序编号,令乙猜测棋子所在方格的序号(2)将方格按行和列编号,甲将棋子所在方格的行编号告诉乙之后,再令乙猜测棋子所在的列求:以上两种情况所包含的信息量,2004-07-29,第15/103页,2.1.2 条
5、件自信息量.3,解:,2004-07-29,第16/103页,2.2 互信息量和条件互信息量,2.2.1 互信息量2.2.2 互信息量的性质2.2.2 条件互信息量,内容,2004-07-29,第17/103页,2.2.1 互信息量.1,介绍几个名词,符号消息,消息的表现形式为符号,例如a,b,c,0,1,2等等,通信系统中的符号消息,由于通信系统中信宿(消息的接收者)并不知道信源(消息的发送者)发送的是哪一个消息,因此每个符号消息是一个随机事件,2004-07-29,第18/103页,2.2.1 互信息量.2,先验概率,2004-07-29,第19/103页,2.2.1 互信息量.3,后验概
6、率,2004-07-29,第20/103页,2.2.1 互信息量.4,解释,2004-07-29,第21/103页,2.2.1 互信息量.5,理想信道(假设,不符合实际情况),2004-07-29,第22/103页,2.2.1 互信息量.6,2004-07-29,第23/103页,2.2.1 互信息量.7,2004-07-29,第24/103页,2.2.1 互信息量.8,简单的解决办法,2004-07-29,第25/103页,2.2.1 互信息量.9,回到我们的例子,2004-07-29,第26/103页,2.2.1 互信息量.10,回顾整个过程,2004-07-29,第27/103页,2.2
7、.1 互信息量.11,2004-07-29,第28/103页,2.2.1 互信息量.12,2004-07-29,第29/103页,2.2.1 互信息量.13,后验概率不是0就是1,相同的是1,不相同的就是0。引入此概念有什么意思?,2004-07-29,第30/103页,2.2.1 互信息量.14,2004-07-29,第31/103页,2.2.1 互信息量.15,如果信道噪声变为下面的形式,2004-07-29,第32/103页,2.2.1 互信息量.16,2004-07-29,第33/103页,2.2.1 互信息量.17,2004-07-29,第34/103页,2.2.1 互信息量.18,
8、对先验概率和后验概率有了一定了解,后面会具体讲计算的问题,2004-07-29,第35/103页,2.2.1 互信息量.19,2004-07-29,第36/103页,2.2.1 互信息量.20,初步分析互信息量,2004-07-29,第37/103页,2.2.1 互信息量.21,初步分析互信息量,收到符号“1”时,信源发出的消息必为“1”,因此在这一条件之下,信源发出消息为“1”这一事件所包含的信息为“0”,2004-07-29,第38/103页,2.2.1 互信息量.22,初步分析互信息量,收到符号“1”时,所获得的信源发送消息为“1”的分布,仍为先验概率,表明两者之间有密切的关系,2004
9、-07-29,第39/103页,2.2.1 互信息量.23,初步分析互信息量,收到符号“1”时,信源发出的消息为“1”概率等于先验概率,因此在这一条件之下,信源发出消息为“1”这一事件所包含的信息量为自信息量,2004-07-29,第40/103页,2.2.1 互信息量.24,初步分析互信息量,收到符号“1”时,不能所获得的信源发送消息为“1”的分布,表明两者之间有独立的关系,2004-07-29,第41/103页,2.2.2 互信息量的性质.1,1.互信息量的互易性,证明,2004-07-29,第42/103页,2.2.2 互信息量的性质.2,1.互信息量的互易性,2004-07-29,第4
10、3/103页,2.2.2 互信息量的性质.3,2.互信息量可为零,2004-07-29,第44/103页,2.2.2 互信息量的性质.4,3.互信息量可正可负,2004-07-29,第45/103页,2.2.2 互信息量的性质.5,举例解释可负的原因,2004-07-29,第46/103页,2.2.2 互信息量的性质.6,2004-07-29,第47/103页,2.2.2 互信息量的性质.7,2004-07-29,第48/103页,2.2.2 互信息量的性质.8,2004-07-29,第49/103页,2.2.2 互信息量的性质.9,我们的问题,2004-07-29,第50/103页,2.2.
11、2 互信息量的性质.10,从前面已经知道y=0是不可能事件,那么x=0|y=0也是不可能事件,2004-07-29,第51/103页,2.2.2 互信息量的性质.11,因为信道噪声太强大了,掩盖了传输的信号,信号畸变,接收到的消息不利于判断输入的信息,例子:你不说我还明白,你越说我越糊涂,2004-07-29,第52/103页,2.2.2 互信息量的性质.12,4.互信息量不能大于自信息量,证明,2004-07-29,第53/103页,2.2.2 互信息量的性质.13,4.互信息量不能大于自信息量,2004-07-29,第54/103页,2.2.2 互信息量的性质.14,2004-07-29,
12、第55/103页,2.2.2 互信息量的性质.15,解,2004-07-29,第56/103页,2.2.2 互信息量的性质.16,2004-07-29,第57/103页,2.2.2 互信息量的性质.17,2004-07-29,第58/103页,2.2.3 条件互信息量.1,2004-07-29,第59/103页,2.2.3 条件互信息量.2,进一步说明,2004-07-29,第60/103页,2.2.3 条件互信息量.3,2004-07-29,第61/103页,2.3 离散集中的平均自信息量,2.3.1 平均自信息量(熵)2.3.2 熵函数的数学特性2.3.3 条件熵2.3.4 联合熵2.3.
13、5 各种熵的性质2.3.6 加权熵,2004-07-29,第62/103页,2.3.1 平均自信息量(熵).1,随机变量,自信息量无法衡量整个信源的信息测度,引入平均自信息量:信息熵,2004-07-29,第63/103页,2.3.1 平均自信息量(熵).2,2004-07-29,第64/103页,2.3.1 平均自信息量(熵).3,信息熵的单位取决于对数的底,例子,2004-07-29,第65/103页,2.3.1 平均自信息量(熵).4,例2.3.11,2004-07-29,第66/103页,2.3.1 平均自信息量(熵).5,解:,2004-07-29,第67/103页,2.3.1 平均
14、自信息量(熵).6,例2.3.12,已知:一篇千字文,每字可从万字表中任选,每篇千字文等概率出现求:一篇千字文可提供的平均信息量,2004-07-29,第68/103页,2.3.1 平均自信息量(熵).7,解,2004-07-29,第69/103页,2.3.1 平均自信息量(熵).8,2004-07-29,第70/103页,2.3.1 平均自信息量(熵).9,解,2004-07-29,第71/103页,2.3.2 熵函数的数学特性.1,2004-07-29,第72/103页,2.3.2 熵函数的数学特性.2,2004-07-29,第73/103页,2.3.2 熵函数的数学特性.3,定义2.3.
15、2 上凸函数,2004-07-29,第74/103页,2.3.2 熵函数的数学特性.4,直观解释,2004-07-29,第75/103页,2.3.2 熵函数的数学特性.5,2004-07-29,第76/103页,2.3.2 熵函数的数学特性.6,引理2.3.1的推广,2004-07-29,第77/103页,2.3.2 熵函数的数学特性.7,引理2.3.1的推广,书上的结论有问题,2004-07-29,第78/103页,2.3.2 熵函数的数学特性.8,1.熵的对称性,2004-07-29,第79/103页,2.3.2 熵函数的数学特性.9,例子,三个信源,概率空间分别为,求:信息熵H(X),H
16、(Y),H(Z),2004-07-29,第80/103页,2.3.2 熵函数的数学特性.10,解,2004-07-29,第81/103页,2.3.2 熵函数的数学特性.11,对称性的物理意义,信息熵的对称性说明熵仅与随机变量的总体结构有关(例如,信源的信息熵仅与信源的总体结构有关),2004-07-29,第82/103页,2.3.2 熵函数的数学特性.12,已知:A、B两地的天气情况如表。,求:信息熵,2004-07-29,第83/103页,2.3.2 熵函数的数学特性.13,解,2004-07-29,第84/103页,2.3.2 熵函数的数学特性.14,信息熵没有反映出关于冰雹的差别:信息熵
17、的局限,2004-07-29,第85/103页,2.3.2 熵函数的数学特性.15,2.熵的非负性,证明,2004-07-29,第86/103页,2.3.2 熵函数的数学特性.16,2004-07-29,第87/103页,2.3.2 熵函数的数学特性.17,3.熵的扩展性,2004-07-29,第88/103页,2.3.2 熵函数的数学特性.18,熵扩展性的含义,如果两个集合的唯一差别是一个概率接近于0的事件,那么两个集合的熵是一样的,2004-07-29,第89/103页,2.3.2 熵函数的数学特性.19,4.熵的可加性,2004-07-29,第90/103页,2.3.2 熵函数的数学特性
18、.19,2个随机变量的熵的定义形式,2个随机变量的联合概率,2004-07-29,第91/103页,2.3.2 熵函数的数学特性.20,2004-07-29,第92/103页,2.3.2 熵函数的数学特性.21,2004-07-29,第93/103页,2.3.2 熵函数的数学特性.22,先看第一项,2004-07-29,第94/103页,2.3.2 熵函数的数学特性.23,2004-07-29,第95/103页,2.3.2 熵函数的数学特性.24,再看第二项,2004-07-29,第96/103页,2.3.2 熵函数的数学特性.25,2004-07-29,第97/103页,2.3.2 熵函数的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息 理论基础 统计 度量

链接地址:https://www.31ppt.com/p-5230085.html