信息论与编码(傅祖云讲义)第二章ppt课件.ppt
《信息论与编码(傅祖云讲义)第二章ppt课件.ppt》由会员分享,可在线阅读,更多相关《信息论与编码(傅祖云讲义)第二章ppt课件.ppt(62页珍藏版)》请在三一办公上搜索。
1、第二章 离散信源及其信息测度,第一节 信源的数学模型及分类,第二节 离散信源的信息熵,第三节 信息熵的基本性质,第四节 离散无记忆的扩展信源,第五节 离散平稳信源,第六节 马尔可夫信源,第七节 信源剩余度与自然语言的熵,信源的主要问题 1如何描述信源(信源的数学建模问题) 2怎样计算信源所含的信息量 3怎样有效的表示信源输出的消息,也就是信源编码问题,第一节 信源的数学模型及分类,在通信系统中,收信者在未收到信息以前,对信源发出什么样的消息是不确定的,是随机的,所以可以用随机变量、随机矢量或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度来描述信源。 不同的信源根据其输出消息的不
2、同的随机性质进行分类。,信源的定义及分类,离散信源连续信源,信源是发出消息的源,信源输出以符号形式出现的具体消息。按照信源发出的消息在时间上和幅度上的分布情况:,是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。,是指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。,第一节 信源的数学模型及分类,1、离散信源 数学模型如下:,集合X中,包含该信源包含的所有可能输出的消息,集合P中包含对应消息的概率密度,各个消息的输出概率总和应该为1。 例:掷骰子;抛硬币;天气预报,第一节 信源的数学模型及分类,2、连续信源
3、数学模型如下:,每次只输出一个消息,但消息的可能数目是无穷多个。 例:电压、温度等。,离散信源的进一步分类,发出单个符号的信源发出符号序列的信源,指信源每次只发出一个符号代表一个消息,指信源每次发出一组含二个以上符号的符号序列代表一个消息,根据随机变量间是否统计独立将信源分为有记忆信源和无记忆信源。离散无记忆信源离散有记忆信源,所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。,所发出的各个符号的概率是有关联的。,有记忆信源符号间的概率关联性可用两种方式:一种是用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征一
4、种限制记忆长度,即某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征,这就是发出符号序列的马尔可夫信源,根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源,一个实际信源的统计特性往往是相当复杂的,要想找到精确的数学模型很困难。实际应用时常常用一些可以处理的数学模型来近似。随机序列,特别是离散平稳随机序列是我们研究的主要内容。,第二节 离散信源的信息熵,1、自信息 我们认为,一个字符它所携带的信息量是和该字符出现的概率有关,概率可以表征自信息量的大小,根据客观事实和人们的习
5、惯概念,应满足以下条件:,第二节 离散信源的信息熵,(3)当 时,(4)两个独立事件的联合信息量应等于它们分别的信息量之和。,(1) 应是先验概率的单调递减函数,即当 时,第二节 离散信源的信息熵,根据上述条件可以从数学上证明这种函数形式是对数函数,即:,有两个含义:,1、当事件发生前,表示该事件发生的不确定性;2、当事件发生后,表示该事件所提供的信息量,自信息量的单位取决于对数所取的底,若以2为底,单位为比特,以e为底,单位为奈特,以10为底,单位为哈特,通常取比特为单位,第二节 离散信源的信息熵,例:设天气预报有两种消息,晴天和雨天,出现的概率分别为1/4和3/4,我们分别用 来表示晴天,
6、以 来表示雨天,则我们的信源模型如下:,第二节 离散信源的信息熵,我们定义自信息的数学期望为信源的平均信息量,信息熵具有以下两种物理含义:1、表示信源输出前信源的平均不确定性2、表示信源输出后,每个符号所携带的平均信息量,2、信息熵,例:天气预报,有两个信源,则:,说明第二个信源的平均不确定性更大一些,第二节 离散信源的信息熵,第三节 信息熵的基本性质,熵函数可以表示为:,第三节 信息熵的基本性质,性质1:非负性,H(X)0由于0pi1,所以logpi0,则总有H(X)0。,性质2:对称性,根据加法交换律可以证明,当变量交换顺序时熵函数的值不变。信源的熵只与概率空间的总体结构有关,而与个概率分
7、量对应的状态顺序无关;,第三节 信息熵的基本性质,性质3:确定性;,当信源X的信源空间X,P中。任一个概率分量等于1,根据完备空间特性,其它概率分量必为0,这时信源为一个确知信源,其熵为0。如果一个信源的输出符号几乎必然为某一状态,那么这个信源没有不确定性,信源输出符号后不提供任何信息量。,第三节 信息熵的基本性质,性质4:扩展性,这说明信源空间中增加某些概率很小的符号,虽然当发出这些符号时,提供很大的信息量,但由于其概率接近于0,在信源熵中占极小的比重,使信源熵保持不变。,第三节 信息熵的基本性质,性质5 :极值性,上式表明,对于具有q个符号的离散信源,只有在q个信源符号等可能出现的情况下,
8、信源熵才能达到最大值,这也表明等概分布的信源的平均不确定性最大,这是一个很重要得结论,称为最大离散熵定理,例:对于一个二元信源 H(X)=H(1/2,1/2)=log2=1bit/信源符号,第四节 离散无记忆的扩展信源,实际信源输出的消息往往是时间上或空间上的一系列符号,如电报系统,序列中前后符号间一般是有统计依赖关系的。 我们先讨论离散无记忆信源,此时,信源序列的前后符号之间是统计独立的 如在二元系统中,我们可以把两个二元数字看成一组,会出现四种可能情况:00、01、10和11,我们可以把这四种情况看成一个新的信源称为二元无记忆信源的二次扩展信源,相应的,如果把N个二元数字看成一组,则新的信
9、源称为二元无记忆信源的N此扩展信源。,第四节 离散无记忆的扩展信源,一般情况设一个离散无记忆信源为:,则该信源的N次扩展信源为:,第四节 离散无记忆的扩展信源,其中:,根据信息熵的定义:,可以证明,对于离散无记忆的扩展信源,例: 离散无记忆信源的N次扩展信源离散无记忆信源为:X:a1,a2,a3; P(X):1/4, 1/2, 1/4,2次扩展信源为:,:A1A9,信源的9个符号为:,第四节 离散无记忆的扩展信源,第四节 离散无记忆的扩展信源,其概率关系为 :,计算可知,第五节 离散平稳信源,一般来说,信源的前后消息之间有前后依赖关系,可以用随机矢量描述:,信源在某一时刻发出什么样的值取决于两
10、方面1、这一时刻该变量的概率分布2、这一时刻以前发出的消息 如一个人讲话 我们现在讨论平稳的随机序列,所谓平稳是指序列的统计性质与时间的推移无关(两个任意时刻信源发出相同符号的概率分布完全相同)。,1、离散平稳信源的数学定义,第五节 离散平稳信源,2、二维平稳信源及其信息熵,最简单的平稳信源二维平稳信源,信源发出序列中只有前后两个符号间有依赖关系,我们可以对其二维扩展信源进行分析。信源的概率空间:连续两个信源符号出现的联合概率分布为:,第五节 离散平稳信源,已知符号 出现后,紧跟着 出现的条件概率为:,由二维离散信源的发出符号序列的特点可以把其分成每两个符号一组,每组代表新信源 中的一个符号。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 傅祖云 讲义 第二 ppt 课件

链接地址:https://www.31ppt.com/p-1312690.html