信息论与编码第二版陈运主编课件全套.ppt
《信息论与编码第二版陈运主编课件全套.ppt》由会员分享,可在线阅读,更多相关《信息论与编码第二版陈运主编课件全套.ppt(437页珍藏版)》请在三一办公上搜索。
1、信息论与编码Information Theory and coding,电子信息工程系 宋丽丽Email: ,课程类型:技术基础课学 时:48学时(112周)考 核:平时成绩20(作业、考勤、测验) 期末考试80(闭卷)几点要求:上课尽量不要迟到 课堂上请将手机静音 电子版作业提交到网络教学平台,课程简介,学习目的及意义,最简单的通信系统,信源,信道,信宿,信源熵,信源包含多少信息?信道中传输的是什么形式?信道能传送多少信息?信宿接收到的信息是否正确?,编码,信道容量,检纠错,学习方法,本课程以概率论为基础,数学推导较多,学习时主要把注意力集中到概念的理解上,不过分追求数学细节的推导。建议:上
2、课时紧跟老师思路积极思考,提高听课效率记住概念,知道物理含义及其关系预习和复习自己独立完成作业,概 论,信息的一般概念 信息的分类信息论的起源、发展及研究内容,信息论创始人:C.E.Shannon(香农)美国科学家,概 论,信息科学和材料、能源科学一起被称为当代文明的“三大支柱”。,一位美国科学家说过:“没有物质的世界是虚无的世界;没有能源的世界是死寂的世界;没有信息的世界是混乱的世界。”,信息的存在,花朵开放时的色彩是一种信息,它可以引来昆虫为其授粉; 成熟的水果会产生香味,诱来动物,动物食后为其传播种子,果香也是一种信息;药有苦味,让人难以吞咽,药味是一种信息;听老师讲课可以得到许多知识,
3、知识也是信息。,信息的存在,总之,信息处处存在,人的眼、耳、鼻、舌、身都能感知信息。,信息的存在,1928年,美国数学家哈 特 莱 (Hartley)在贝尔系统电话杂志上发表了一篇题为信息传输的论文。他认为“信息是选择的自由度”。,?信息究竟是什么呢?,事隔20年, 另一位美国数学家香农 (C. E. Shannon) 在贝尔系统电话杂志发表了题为通信的数学理论的长篇论文。他创立了信息论,但是却没有给出信息的确切定义,他认为“信息就是一种消息”。,美国数学家、控制论的主要奠基人维纳(Wiener)在1950年出版的控制论与社会,中写到:“信息既不是物质又不是能量,信息就是信息”。这句话起初受到
4、批评和嘲笑。它揭示了信息的特质:即信息是独立于物质和能量之外存在于客观世界的第三要素。,最普遍的层次,也是无约束条件的层次,定义事物的“信息是该事物运动的状态和状态改变的方式”。我们把它叫做“本体论”层次。最广义的信息,使用范围也最广。,“本体论”定义,引入一个最有实际意义的约束条件:认识主体。信息定义就转化为“认识论”层次的信息定义。,“认识论”定义,即:信息是认识主体(生物或机器)所感知的或所表述的相应事物的运动状态及其变化方式(包括状态及其变化方式的形式、含义和效用)。,全 信 息,同时考虑事物运动状态及其变化方式的外在形式、内在含义和效用价值的认识论层次信息。,语法信息,语义信息,语用
5、信息,全 信 息,信息的重要性质:,信息消息信号区别与联系:,消息是指担负着传送信息任务的单个符号或符号序列。包括文本、数据、语言、图形和图像等。是具体的。信号是消息的物理体现,为了在信道上传输消息,就必须把消息加载到具有某种物理特征的信号上去。是物理的。信息是消息中的未知成分(不确定性),或者说是消息中的有用成分。是抽象的。通信系统传输的是信号,信号是消息的载体,消息中的未知成分是信息。,信息的直观认识1,信道上传送的是随机变量的值。这就是说,我们在收到消息之前,并不知道消息的内容。否则消息是没有必要发送的。 消息随机变量有一个概率分布。 消息随机变量的一个可能取值就称为一个事件。,信息的直
6、观认识2,事件发生的概率越小,此事件含有的信息量就越大。(不太可能发生的事件竟然发生了,令人震惊)例事件“中国足球队5:0力克韩国足球队” 此事件含有的信息量大。(小概率事件发生了,事件信息量大)例事件“中国足球队0:1负于韩国足球队” 此事件有的信息量小。(大概率事件发生了,事件信息量小),信息的直观认识3,消息随机变量的随机性越大,此消息随机变量含有的信息量就越大。例消息随机变量X=“中国足球队与巴西足球队比赛的结果” 则消息随机变量X含有的信息量小。例消息随机变量Y=“意大利足球队与德国足球队比赛的结果” 则消息随机变量Y含有的信息量大。,信息的直观认识4,两个消息随机变量的相互依赖性越
7、大,它们的互信息量就越大。例X=呼和浩特明日平均气温, Y=包头明日平均气温,Z=北京明日平均气温,W=纽约明日平均气温。 则X与Y互信息量大, X与Z互信息量小得多, X与W互信息量几乎为0 。,按照信息的性质,按照信息的地位,信息的分类,按照信息的作用,信息的分类,信息的分类,香农信息论主要讨论的是语法信息中的概率信息,本书也以概率信息为主要研究对象。,在人类历史的长河中,信息传输和传播手段经历了五次重大变革:,1,2,3,4,5,信息论的起源、发展及研究内容,1948年以“通信的数学理论”(A mathematical theory of communication)为题公开发表,标志着
8、信息论的正式诞生。,起 源,50 年代,信息论在学术界引起了巨大反响。,60 年代,信道编码技术有了较大发展,使它成为信息论的又一重要分支。,后来,人们逐渐意识到信息安全是通信系统正常运行的必要条件。于是,把密码学也归类为信息论的分支。信息论不仅在通信、广播、电视、雷达、导航、计算机、自动控制、电子对抗等电子学领域得到了直接应用,还广泛地渗透到诸如医学、生物学、心理学、神经生理学等自然科学的各个方面,甚至渗透到语言学、美学等领域。,70年代以后,多用户信息论成为中心研究课题之一。,发 展,信源,信道,信宿,信源编码,加密,信道编码,调制器,解调器,信道译码,解密,信源译码,通信系统模型,信息论
9、研究对象,香农信息论,所有研究信息的识别、控制、提取、变换、传输、处理、存贮、显示、价值、作用、安全以及信息量的大小的一般规律以及实现这些原理的技术手段的工程学科,信息论的完备和延伸,都属于广义信息论的范畴。,广义信息论,总之,人们研究信息论的目的是为了高效、可靠、安全并且随心所欲地交换和利用各种各样的信息。,小 结,信息的理解,信息、信号、消息的联系,信息的性质;信息论的研究内容及意义,通信系统模型;预习第2章中2.1.1,2.1.2,信息论与编码Information Theory and coding,电子信息工程系 宋丽丽Email: ,上次课的回顾,什么是信息?信号,消息,信息的区别
10、?通信系统模型Shannon信息论重点研究内容?,通信系统模型,对信息论的学习从信源开始由于信源发送什么消息预先是不可知的,只能用概率空间来描述信源。,随机变量X、Y分别取值于集合,联合随机变量 取值于集合,记,概率论知识复习,满足下面一些性质和关系:,1,2,3,无条件概率、条件概率、联合概率,4,5,6,问题的引出,信息论的发展是以信息可以度量为基础的,度量信息的量称为信息量。对于随机出现的事件,它的出现会给人们带来多大的信息量?举例: 甲告诉乙“你考上研究生”,那么乙是否得到信息? 丙再次告诉乙同样的话,那么乙是否得到信息?,2.1 单符号离散信源,第2章:信源和信源熵,信源分类,单符号
11、离散信源,信源发出的消息是离散的,有限的或可数的,且一个符号代表一条完整的消息。例如: 投骰子每次只能是1,2,6中的某一个。 其中的数叫做事件/元素,以一定的概率出现; 信源可看作是具有一定概率分布的某些符号的集合。,对于离散随机变量,取值于集合,单符号离散信源的数学模型为,(2.1.2),单符号离散信源的数学模型,需要注意 的是:大写字母X 代表随机变量,指的是信源整体。带下标的小写字母: 代表随机事件的某一结果或信源的某个元素。两者不可混淆。,单符号离散信源的数学模型,一、信息量,单位:比特(2为底)、奈特、笛特(哈特)三个信息单位之间的转换关系如下:,定义:,由式(2.1.3)可知,一
12、个以等概率出现的二进制码元(0,1)所包含的自信息量为1bit。,例题,例2.1.1,这四种气候的自信息量分别为 :,某地二月份天气的概率分布统计如下:,1,是非负值,2,3,的单调递减函数。,4,自信息量 的性质,必然事件,不可能的事件,联合自信息量,针对两个符号离散信源,代入式(2.1.3)就有,定义:,联合自信息,条件自信息量,定义:,联合自信息量和条件自信息也满足非负和单调递减性 ,同时,它们也都是随机变量,其值随着变量 的变化而变化。,三者之间的关系,二、互信息量和条件互信息量,互信息量,离散信源X的数学模型为,信宿Y的数学模型为,如果信道是理想的,发出ai收到ai则所获得的信息量a
13、i的不确定度I(ai);如果信道不理想,发出ai收到bj,由bj推测ai的概率,,互信息量的定义,互信息量的定义1,例2.1.2,继续讨论上一节的例题,即某地二月份天气构成的信源为,“今天不是晴天”作为收到的信息b1,计算b1与各天气之间的互信息量。,例题,今天不是晴天。把这句话作为收到的信息 当收到 后,各种天气发生的概率变成后验概率。其中,互信息量的定义2,通信前,先验不定度(联合自信息量),互信息量的定义3,后验不定度,通信后,互信息量的定义3,这样,通信后流经信道的信息量,等于通信前后不定度的差,互信息量的定义3,互信息的性质,对称性,当X和Y相互独立时,互信息为0,1,2,互信息的性
14、质,互信息量可为正值或负值,3,互信息量为正,bj使ai的不确定度减小,上例中,“今天不是晴天”,为0,二者相互独立,“今天我很高兴”,为负,bj没有使ai的不确定度减小,“今天有风”。,条件互信息量,(2.1.13),在你不知道今天是星期几的情况下,问朋友“明天是星期几”则答案中可能存在的信息量是多少?如果你知道今天是星期四提出同样的问题则答案所含信息量是多少? A事件-不知道今天是星期几的情况下,问朋友“明天是星期几” B事件-知道今天是星期四明天是星期几,练习,小结,信源类型 信息量及性质互信息量及性质,思考题与作业,思考题: 12枚同值的硬币,一枚为假,其重量与其他不同,用天平(无砝码
15、),找出来这枚硬币所使用的最少次数是多少?作业:2-2,2-3,2-4,信息论与编码Information Theory and coding,电子信息工程系,内蒙古工业大学,上次课内容复习思考题解答,问题的引出,哪个信源的不确定度小?,X的不确定度小,X中a1出现的可能性。,信源熵,已知单符号离散无记忆信源的数学模型,信源熵,信源熵,各离散消息自信息量的数学期望,即信源的平均信息量。,(2.1.16),信源的信息熵;香农熵;无条件熵;熵函数;熵。单位:比特/符号。(底数不同,单位不同),例2.1.3,由式(2.1.16)的定义,该信源的熵为,继续讨论上一节的例题,即某地二月份天气构成的信源为
16、,信源熵H(X)表示信源输出后,离散消息所提供的平均信息量。,信源熵H(X)表示信源输出前,信源的平均不确定度。,信源熵H(X)反映了变量X的随机性。,1,2,3,信源熵的意义,H(X)=0.08bit/sign,H(Y)=1bit/sign,说明X的不确定小。,信源熵与信息量的比较,熵 信息量,例题2.1.4:,条件熵,信道疑义度,损失熵,噪声熵,联合熵,非负性 H(X) 00p(ai)1,当取对数的底大于1时,log p(ai)0,- p(ai) log p(ai) 0,即得到的熵为正值。只有当随机变量是一确知量时熵才等于零。,信息熵的基本性质,信息熵的基本性质,对称性 X中的n个消息概率
17、改变顺序,不影响熵的值。,X与Z信源的差别:它们所选择的具体消息/符号含义不同X与Y信源的差别:选择的同一消息,概率不同三者的信源熵是相同的,总体统计特性相同,信息熵的基本性质,定理,信源中包含n个不同离散消息时,信源熵H(X)有,当且仅当X中各个消息出现的概率全相等时,上式取等号。,最大离散熵定理,信息熵的基本性质,证明:,对于单符号离散信源,当信源呈等概率分布时具有最大熵。,二进制信源是离散信源的一个特例。,H(X) = -log (1-) log(1-) =H(),即信息熵H(x)是的函数。取值于0,1区间,可画出熵函数H() 的曲线来,如右图所示。,举例,习题P68 2.6,?H(X)
18、log6 不满足信源熵的极值性,扩展性性质说明:由n个消息增加到n+1个,若它的概率很小,可忽略对熵的贡献,虽然概率很小的事件出现后,给予接收者的信息量很大,但对熵的贡献很小,可以忽略不计,信息熵的基本性质,确定性 H(1,0)=H(1,0,0)=H(1,0,0,0)=0性质说明:从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号则是几乎不可能出现,那么,这个信源是一个确知信源,其熵等于零。,信息熵的基本性质,可加性 H(XY) = H(X)+ H(Y) X和Y独立 H(XY)=H(X)+ H(Y/X) H(XY)=H(Y)+ H(X/Y),信息熵的基本性质,已知Y
19、后,从中得到了一些关于X的信息,从而使X的不确定度下降。,极值性,信息熵的基本性质,可以证明,上凸性 熵函数具有上凸性,所以熵函数具有极值,其最大值存在。,信息熵的基本性质,加权熵从某种程度上反映了人的主观因素,例,下雪,加权熵的概念(了解),小结与作业,信源熵性质,最大离散熵定理作业: 2.5 2.7(1-3),信息论与编码Information Theory and coding,内蒙古工业大学电子信息工程系,复习,信源熵及性质互信息量,研究信源中各个消息之间的关系,平均互信息,一、平均互信息量的定义,平均交互信息量;交互熵,同理,X对Y的平均互信息:,平均互信息量的定义,(2.1.45)
20、,信道中流通信息量的整体测度。,平均互信息量的定义,二、平均互信息的物理意义,平均互信息量是收到Y前、后关于X的不确定度减少的量,即由Y获得的关于X的平均信息量。,1,损失熵表示收到Y后,对X仍存在不确定度,代表信道中损失的信息。,平均互信息量是发送X前、后,关于Y的平均不确定度减少的量。,2,平均互信息的物理意义,噪声熵表示发出X后,对Y仍存在不确定度,由于信道中的噪声引起的。,平均互信息量等于通信前、后,整个系统不确定度减少的量。,平均互信息的物理意义,3,三、平均互信息的性质,对称性,1,非负性,2,说明:从X中提取关于Y的信息量与由Y中提取到X的信息量是相同的,是信息流通的总体测度。,
21、说明:信道每传递一条消息,总能提供一定的信息量。,极值性,1,3,2,极值性,凸函数性,4,1,2,多次处理信息量将减少。,数据处理定理,5,1,2,3,等概率信源的熵最大。,4,5,6,7,三、各种熵之间的关系,H(X) ,H(Y) 信源熵,无条件熵H(X/Y) 疑义度,损失熵H(Y/X) 噪声熵H(XY)联合熵I(X;Y)平均互信息量,交互熵,作业,作业:2-11 H(X),H(Y) ,H(X/Y) , H(XY),H(Z),I(X;Y)。,信息论与编码Information Theory and coding,内蒙古工业大学电子信息工程系 宋丽丽Email: ,信源分类,连续信源,随机变
22、量,信源,离散信源,单符号,多符号,随机矢量,随机过程,离散无记忆信源,离散有记忆信源,平稳序列信源,马尔可夫信源,输出的消息序列中各符号之间无相互依赖关系的信源。亦称为单符号离散平稳无记忆信源的扩展信源。序列长度就是扩展次数。,例:单符号信源0,1,经过二次扩展,变成了:00,01,10,11,经过三次扩展,形成的信源?经过N次扩展,形成的信源?,多符号离散平稳无记忆信源,无记忆信源的扩展信源,数学模型,数学模型,可证明序列信息的熵为,信源熵,单符号信源如下,求二次扩展信源熵,扩展信源:,例题,例题,反映信源记忆特性的两方法:,用联合概率反映信源记忆特性平稳序列信源,用条件概率反映信源记忆特
23、性马尔可夫信源,1,2,有记忆信源,各维联合概率均与时间起点无关,离散平稳信源,二维信源,1,二维信源的信源熵,一般地,信源熵的说明,结论:离散无记忆信源的二次扩展信源可以看作二维离散平稳信源的特例,例2.2.3,原始信源:,条件概率:,例题,平均符号熵:,信源熵:,例题,N维信源,2,N维信源的信源熵,平均符号熵:,极限熵:,平均符号熵与极限熵,对离散平稳信源若H1(X) ,则有以下性质:(1) 多维离散有记忆信源的熵是起始时刻随机变量X1的熵与各阶条件熵之和;(2)条件熵H(XN/X1X2XN-1)随N的增加是递减的;,一些性质,(3) 平均符号熵HN (X)也是随N增加而递减的;(4)
24、H 存在,并且:,一些性质,小结,离散无记忆信源的N次扩展离散平稳有记忆信源平均符号熵极限熵,作业,作业 2.13 2.18,信息论与编码Information Theory and coding,内蒙古工业大学电子信息工程系 宋丽丽Email: ,有记忆的特点:,有限的相关符号组构成的序列,有限记忆长度;,发出一个个符号,每发一个符号状态要发生转移。,信源输出不仅与符号集有关,而且与状态有关;,1,2,3,以信源输出符号序列内各符号间条件概率来反映记忆特性的一类信源。,某时刻输出符号仅与此刻信源所处的状态有关;,某时刻所处状态由当前输出符号和前一时刻信源状态唯一确定。,1,2,信源输出当前符
25、号仅与前面m个符号有关的马尔可夫信源。,马尔可夫信源稳定后各状态的极限概率( ),状态极限概率的求法,状态转移图,例2.2.4,平稳信源(如果不平稳则先把其变成分段平稳的)。,1,2,1,马尔可夫信源发出一个个符号,有限长度有记忆信源发出一组组符号;,一般有记忆信源用联合概率描述符号间的关联关系,马尔可夫信源用条件概率(状态转移概率)来描述符号间的关联关系;,m阶马尔可夫与一般记忆长度为m的有记忆信源的区别:,1,2,2,马尔可夫信源记忆长度虽然有限,但依赖关系延伸到无穷远。长为m的有限记忆信源符号间的依赖关系仅限于每组内,组与组之间没有依赖关系;,3,4,2.2.5 信源冗余度,空格:0.2
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 第二 版陈运 主编 课件 全套

链接地址:https://www.31ppt.com/p-1297165.html