信息论与编码全部.ppt
《信息论与编码全部.ppt》由会员分享,可在线阅读,更多相关《信息论与编码全部.ppt(397页珍藏版)》请在三一办公上搜索。
1、1,1 绪论,1.1 信息的概念1.1.1 信息的定义与性质1.1.2 信息的分类1.2 信息传输系统的组成及功能1.2.1 模拟信息传输系统1.2.2 数字信息传输系统1.3 信息论研究对象和内容1.4 信息论发展简史,2,1.1.1 信息的定义与性质,古时的通信:烽火台信息传播五阶段:手势和语言文字印刷术电磁波计算机和通信微电子技术、通信技术和计算机技术促进了信息技术发展。信息产业的发展促进了社会产业结构的变化与发展。,3,1.1.1 信息的定义与性质,信息:认识主体所感受的或所表达的事物的运动状态和运动状态的变化方式。(1)信息是普遍存在的。(2)信息与物质。(3)信息与能量。(4)人类
2、认识事物,变革事物必须要有信息。信息载体:运载信息的物质。,4,1.1.1 信息的定义与性质,消息:以文字、语音、图像等这些能够为人们的感觉器官所感知的物理现象,把客观物质运动和主观思维活动的状态表达出来就成为消息。,信号:消息的表现形式和载体。同一信息可用不同的信号来表示,同一信号也可表达不同的信息。,5,1.1.1 信息的定义与性质,信息十分抽象而又复杂的概念,是人们对客观事物感触到的新认识。消息信息的载荷者,是描述信息的一种表现形式,是对某个事物的描述和反应。信号运载或携带消息的任何物理量,达到迅速有效地传递和交换信息的目的。,6,1.1.1 信息的定义与性质,性质:(1)普遍性:信息是
3、普遍存在的。(2)无限性:信息是无限的。(3)相对性:对同一事物不同的观察者所获得的信息量可能不同。,(4)转换性:信息可以在时间上或空间中从一点转移到另一点。(5)变换性:信息是可变的,它可以由不同的载体或不同的方法来载荷。,7,1.1.1 信息的定义与性质,(6)有序性:信息可以用来消除系统的不定性,增加系统的有序性。(7)动态性:信息具有动态性质,一切活的信息都随时间变化,具有时效性。(8)转化性:在一定条件下,信息可以转化为物质、能量、时间等。,(9)共享性:同一信息可以被无限的人所获得,可以交流而不会减少。(10)可量度性:信息的数量与质量是可量度的即信息量。,8,1.1.2 信息的
4、分类,(1)从性质分:语法信息、语义信息、语用信息。,9,1.1.2 信息的分类,举例说明,两个布袋中装有对人手感觉完全一样的球,但颜色和数量不同,(1)50个红球和50个白球(2)红球、白球、黑球、黄球各25个随意拿出一个球,被告知是红球所获得的信息量。,10,1.1.2 信息的分类,(2)按观察的过程分:实在信息、先验信息、实得信息。(3)按信息的地位分:客观信息、主观信息。(4)按作用分:有用信息、无用信息、干扰信息。,(5)按逻辑意义分:真实信息、虚假信息、不定信息。(6)按传递方向分:前馈信息、反馈信息。,11,1.1.2 信息的分类,(7)按生成领域分:宇宙信息、自然信息、社会信息
5、、思维信息等。(8)按应用部门分:工业信息、农业信息、军事信息、政治信息、科技信息、文化信息等。,(9)按信息源的性质分:语声信息、图像信息、文字信息、数据信息、计算信息等。(10)按载体性质分:电子信息、光学信息、生物信息等。(11)按携带信息的信号形式分:连续信息、离散信息、半连续信息等。,12,1.2.1 模拟信息传输系统,该系统传递的是模拟信号,它在任意时刻的取值是任意的,是时间的连续函数。基本模型如图1.1 所示:,13,1.2.1 模拟信息传输系统,信息源:产生含有信息的消息,是被传输的对象。信息宿:信息传送的目的地,即原消息的归宿或接受者。,14,1.2.1 模拟信息传输系统,变
6、换器:将非电量变换成宜于远距离传输的电信号。反变换器:将信息信号恢复成原消息。,15,1.2.1 模拟信息传输系统,调制器:将频率较低的信号调制到频率更高的载波信号上。(调制方式有调幅AM、调频FM、调相、单边带调制SSB等)。,解调器:从已调的高频载波信号中解调出被传输的低频信息信号。,16,1.2.1 模拟信息传输系统,发射机:变频器和功率放大器,使已调载波信号的频率和功率达到实际应用所要求的数值。,接收机:低噪声高频放大器、混频器、中频放大器,将微弱信号放大到解调器所需强度的信号,并最大限度地降低信道噪声的影响。,17,1.2.1 模拟信息传输系统,信道:消息的信号从发射端传到接受端的媒
7、质或通道。(有线信道:架空明线、同轴电缆、波导、光纤等;无线信道:无线电波、激光自由空间传播等),噪声源:实际传输系统中客观存在的干扰源,有内部噪声和外部干扰两方面。,18,1.2.2 数字信息传输系统,该系统中传输的是数字信号,它只能取有限个离散值,且出现的时间也是离散的。基本模型如图1.2 所示:,19,1.2.2 数字信息传输系统,调制方式有幅度键控ASK、频移键控FSK、相移键控PSK等。,信源编码器:模/数(A/D)变换器,将模拟信号变换成数字信号。信源译码器:数/模(D/A)变换器,将数字信号变换成模拟信号。信道编译码器:提高传输系统的抗干扰能力。,20,1.2.2 数字信息传输系
8、统,优点:(1)抗干扰能力强,特别在中继传输中尤为明显。(2)可以进行差错控制,提高了信息传输的灵活性。,(3)便于使用现代计算机技术对信号进行处理、存储和变换。(4)便于加密,实现保密信息传输。,21,1.2.2 数字信息传输系统,(5)易于与其他系统配合使用,构成综合业务信息传输网。(6)易于集成化和大规模生产,性能一致性好且成本低。,缺点:(1)占用信道频带较宽。(2)要有一个复杂的同步系统。,22,1.3 信息论研究对象和内容,研究对象:消息传输系统即信息传输系统,通信系统。,研究目的:提高通信系统的可靠性和有效性。(1)可靠性高:使信源发出的消息经过传输后尽可能准确地不失真地再现在接
9、收端。(2)有效性高:经济效果好,用尽可能短的时间和尽可能少的设备传送一定数量的信息。,23,1.3 信息论研究对象和内容,研究内容:(1)通信的统计理论的研究。(2)信源的统计特性的研究。(3)收信者接受器官的研究。,(4)编码理论与技术。(5)如何提高信息传输效率。(6)抗干扰理论与技术。(7)噪声中信号检测理论与技术。,24,1.3 信息论研究对象和内容,信息论的三个层次:(1)信息论基础(狭义信息论):主要研究信息的测度、信道容量、信源和信道编码理论等问题。,(2)一般信息论:主要研究信息传输和处理问题,除香农理论外,还包括噪声理论、信号滤波和预测、统计检测与估计理论、调制理论以及信息
10、处理理论等。,(3)广义信息论:不仅包括上述两方面内容,还包括与信息有关的领域,如心理学、遗传学、神经生理学、语言学、语义学等。,25,1.4 信息论发展简史,电信系统的发展:电磁理论和电子学理论的发展促进了电信系统的创造发明或改进。1823年-1835年,莫尔斯建立了电报系统。1876年,贝尔发明了电话系统。,1895年,马可尼和波波夫发明了无线电通信。1925年-1927年,建立起电视系统。二次大战初期,微波通信系统和微波雷达系统迅速发展起来。20世纪60年代,人类进入光纤通信时代。,26,1.4 信息论发展简史,信息理论的发展:1924年,奈奎斯特首先将信息率与信号带宽联系起来。1928
11、年,哈特莱引入了非统计(等概率事件)信息量概念。,20世纪40年代初期,维纳把随机过程和数理统计的观点引入通信和控制系统中。1948、1949年,香农用概率测度和数理统计的方法,系统地讨论了通信的基本问题。,27,1.4 信息论发展简史,无失真信源编码的发展:(香农编码理论)惟一可译码费诺码哈夫曼码(最佳码)算术编码LZ码(通用信源编码)。,信道编码的发展:纠错码汉明码(代数编码)卷积码(概率编码)并行极点卷积码。,28,2 信息的量度,2.1 自信息量和条件自信息量2.2 互信息量和条件互信息量2.3 离散集的平均自信息量2.4 离散集的平均互信息量2.5 例题,29,2.1 自信息量和条件
12、自信息量,2.1.1 自信息量2.1.2 条件自信息量,30,2.1.1 自信息量,信源发出的消息常常是随机的,其状态存在某种程度的不确定性,经过通信将信息传给了收信者,收信者得到消息后,才消除了不确定性并获得了信息。,获得信息量的多少与信源的不确定性的消除有关。不确定度惊讶度信息量,31,2.1.1 自信息量,(1)直观定义信息量为:收到某消息获得的信息量=不确定性减少的量=收到此消息前关于某事件发生的不确定性-收到此消息后关于某事件发生的不确定性,(2)无噪声时信息量为:收到消息前获得的信息量=收到此消息前关于某事件发生的不确定性=信源输出的某消息中所含有的信息量,32,2.1.1 自信息
13、量,举例说明,一个布袋中装有对人手感觉完全一样的球,但颜色和数量不同,问下面三种情况下随意拿出一个球的不确定程度的大小。(1)99个红球和1个白球(2)50个红球和50个白球(3)红球、白球、黑球、黄球各25个,33,2.1.1 自信息量,事件发生的不确定性与事件发生的概率有关,一般情况下,一个信源可以用一个概率空间来描述,信源的不确定程度可以用这个概率空间的可能状态数目及其概率来描述。,34,2.1.1 自信息量,设信源X的概率空间为其中:X是信源的状态空间,即随机事件的状态数;是随机事件可能状态的概率分布,且,各状态是相互独立的。通常记为,35,2.1.1 自信息量,应用概率空间的概念分析
14、上例,设取红球的状态为x1,白球为x2,黑球为x3,黄球为x4,则概率空间为:(1)(2)(3),36,2.1.1 自信息量,结论:(1)不确定度与信源概率空间的状态数及其概率分布有关。,(2)信源概率空间的概率分布为等概率时不确定度最大。,(3)等概率时,不确定度与信源概率空间的状态数或相应的概率有关。,37,2.1.1 自信息量,任意随机事件的自信息量定义为该事件发生概率的对数的负值。若随机事件 出现的概率为,那么它的自信息量为通常取对数的底为2,单位为比特(bit)。,38,2.1.1 自信息量,三个单位间的转换关系为:1奈特=log2e 1.433比特1哈特莱=log210 3.332
15、比特自信息量非负且单调递减。,39,2.1.1 自信息量,例:某地的天气情况分布是:晴天占1/2,阴天占1/4,雨天占1/8,雪天占1/8。求各种天气的自信息量。解:设晴天、阴天、雨天、雪天的状态分别为x1,x2,x3,x4,40,2.1.1 自信息量,在二维联合集 上的元素 的联合自信息量定义为其中,为元素 的二维联合概率。当二者相互独立时,则有。元素 的不确定度在数值上也等于他们的自信息量。,41,2.1.1 自信息量,例2.1.1 在盒子中放入n个不同阻值的电阻,随机取出一个并猜测阻值,概率空间为其中xi代表阻值为 表示取出电阻值为i 的电阻的概率。假定取出电阻是等概率的,即 那么被告知
16、取出阻值为i的电阻,所获得的信息量为,42,2.1.1 自信息量,若盒中放入 个不同阻值的电阻,其中阻值为1欧姆的1个,2欧姆的2个,n欧姆的n个。概率空间为其中xi代表阻值为 表示取出电阻值为i 的电阻的概率。那么被告知取出阻值为i的电阻,所获得的信息量为,43,2.1.2 条件自信息量,在联合集 对事件,设在条件 下,随机事件 的条件概率为,那么其条件自信息量定义为三种自信息量的关系:,44,2.1.2 条件自信息量,例2.1.2 设在一正方形棋盘上共有64个方格,如果甲将一粒棋子随机地放在棋盘中某方格内让乙猜。(1)将方格按顺序编号,猜测顺序号;(2)将方格按行和列编号并告知行或列编号,
17、猜测位置。,45,2.1.2 条件自信息量,解:由于棋子位置是二维等概率分布,故(1)在二维联合集 上的元素 的自信息量为(2)在二维联合集 上,元素 相对 的条件自信息量为,46,2.2 互信息量和条件互信息量,2.2.1 互信息量2.2.2 互信息量的性质2.2.3 条件互信息量,47,2.2.1 互信息量,(1)通常预先知道信源集合X的概率空间,即其中 为集合X中各个消息的取值,概率 称为先验概率。,48,2.2.1 互信息量,(2)信宿收到的消息符号集合Y的概率空间为其中 为集合Y中各个消息的取值。当信宿收到集合Y中的一个符号消息后,接收者重新估计关于信源各个消息Xi发生的概率就成为条
18、件概率 也称为后验概率。,49,2.2.1 互信息量,对两个离散随机事件X和Y,事件 的出现给出关于事件 的信息量定义为互信息量,即,互信息量定义为后验概率与先验概率比值的对数,也等于自信息量减去条件自信息量。当对数底分别为2、e、10时,互信息量的单位分别为比特、奈特、哈特莱。,50,2.2.1 互信息量,例:当告知不是晴天时,某地的天气情况分布是阴天占1/2,雨天占1/4,雪天占1/4。求不是晴天时,获得的各种天气的互信息量。解:设晴天、阴天、雨天、雪天的状态分别为x1,x2,x3,x4。不是晴天的状态为y1,51,2.2.1 互信息量,此时,各种天气的条件自信息量:,52,2.2.2 互
19、信息量的性质,(1)互信息量的互易性对称性证:,53,2.2.2 互信息量的性质,(2)当事件xi和yj相互独立时,互信息量为零。证:由 得,54,2.2.2 互信息量的性质,(3)互信息量可正可负,当后验概率 大于先验概率 时,互信息量为正值,反之为负值。互信息量为正意味着事件 的出现有助于肯定事件 的出现,反之是不利的。,55,2.2.2 互信息量的性质,(4)任何两个事件的互信息量不可能大于其中任一事件的自信息量。证:由于故,56,2.2.2 互信息量的性质,例2.2.2 某人A预先知道他的三个朋友B、C、D中有一人晚上到他家,且这三人来的可能性相同,先验概率 P(B)=P(C)=P(D
20、)=1/3。,但上午A接到D的电话说不能来了,将这次电话作为事件E,那么有后验概率P(D|E)=0,P(B|E)=P(C|E)=1/2。,下午又接到C的电话说不能来,将此作为事件F,则有P(C|EF)=P(D|EF)=0,P(B|EF)=1。,57,2.2.2 互信息量的性质,在接到上午电话后,A获得关于B、C、D的互信息量为因为P(D|E)=0,故无需考虑事件D与事件E间的互信息量。在接到两次电话后,A获得关于B、C、D的互信息量为因为P(C|EF)=P(D|EF)=0,故无需考虑事件D与事件E间的互信息量。,58,2.2.3 条件互信息量,在联合集,在给定 的条件下,之间的互信息量。在联合
21、集,还存在 与 之间的互信息量。,59,2.3 离散集的平均信息量,2.3.1 平均自信息量(熵)2.3.2 熵函数的数学特性2.3.3 条件熵2.3.4 联合熵(共熵)2.3.5 各种熵的性质2.3.6 加权熵,60,2.3.1 平均自信息量(熵),自信息量是一个随机变量,不能作为整个信源的信息测度,故引入平均自信息量,即信息熵。,信息熵H(X)是从整个信源的统计特性来考虑的,是从平均意义上表征信源的总体特性。对某特定的信源,其信息熵只有一个。,定义集X上,随机变量自信息I(xi)的数学期望为平均自信息量H(X)即信息熵,简称熵。,61,2.3.1 平均自信息量(熵),例2.3.1 有一个布
22、袋内放100个球,其中80个红球,20个白球。随便摸一个球猜测是什么颜色,求平均摸取一次获得的信息量。解:设事件x1表示摸到红球,事件x2表示摸到白球,则概率空间为,62,2.3.1 平均自信息量(熵),当告知摸出的是红球时,获得的信息量当告知摸出的是白球时,获得的信息量,若每次摸出一个球后又放回去,进行第二次摸取,那么摸取n次中,红球出现的次数为nP(x1),白球出现的次数为nP(x2)。则摸取n次后获得的信息量为,63,2.3.1 平均自信息量(熵),平均随机摸取一次所能获得的信息量为,64,2.3.1 平均自信息量(熵),信息熵分别为可见 H(Y)H(X),例2.3.2 比较两个信源,6
23、5,2.3.1 平均自信息量(熵),信息熵的三种物理含义:(1)表示信源输出后每个消息所提供的平均信息量。(2)表示信源输出前信源的平均不确定性。(3)表征变量的随机性。,66,2.3.2 熵函数的数学特性,因为随机变量集的熵H(X)只是其概率分布的函数,所以熵函数H(X)又可记为,由于概率的完备性,H(P)实际上是(q-1)元函数。如二元熵 H(P)=Hp,(1-p)=H(p)。,67,2.3.2 熵函数的数学特性,设 为一多元函数,若对于任意小于1的正数 以及函数定义域内的任意两个矢量X1和X2有则称f(X)为定义域上的上凸函数。,68,2.3.2 熵函数的数学特性,(1)对称性当概率矢量
24、中的各个分量的次序任意互换时,熵函数的值不变,即例如两个信源信息熵为,69,2.3.2 熵函数的数学特性,(2)非负性(离散信源)等号成立的充要条件是当且仅当某Pi=1,其余的 Pk=0。这表明确定信源的熵最小。证:,当每一项为零时等号成立,由于,故只能有某一个Pi=1,其余的Pk=0,70,2.3.2 熵函数的数学特性,(3)扩展性证:因为,说明信源的取值数增多时,若这些取值对应的概率很小(接近于零),则信源的熵不变。,71,2.3.2 熵函数的数学特性,(4)可加性如果有两个随机变量X和Y,他们不是相互独立的,则二维随机变量的熵H(XY)等于X的无条件熵H(X)加上当X已给定时Y的条件概率
25、定义的熵的统计平均值H(Y|X)。H(XY)=H(X)+H(Y|X)H(XY)=H(Y)+H(X|Y),72,2.3.2 熵函数的数学特性,(5)极值性式中,n是集合X的元素数目。上式表明,在离散情况下,集合X中的各事件依等概率发生时,熵达到极大值,即最大熵定理。,73,2.3.2 熵函数的数学特性,(6)确定性从总体看,信源虽然有不同的输出符号,但当它只有一个符号几乎必然出现,而其他符号都是几乎不可能出现时,那么这个信源是一个确知信源,其熵等于零。(7)上凸性,74,2.3.3 条件熵,条件熵是在联合符号集XY上的条件自信息量的联合概率加权统计平均值。,条件熵H(X|Y)表示收到全部输出符号
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 全部
链接地址:https://www.31ppt.com/p-5230727.html