信息论与编码2-信源及信源熵.ppt
《信息论与编码2-信源及信源熵.ppt》由会员分享,可在线阅读,更多相关《信息论与编码2-信源及信源熵.ppt(49页珍藏版)》请在三一办公上搜索。
1、1,信息论与编码-信源及信源熵,第二章 信源与信源熵信源的分类离散信源的数学模型离散信源的信息度量,2,信息论与编码-信源及信源熵,从这一章开始,我们从有效且可靠地传输信息的观点出发,对组成信息传输系统的各个部分分别进行讨论.本章首先讨论信源,重点是信源的统计特性和数学模型,以及各类离散信源的信息测度熵及其性质.这部分内容是香农信息论的基础.,3,信息论与编码-信源及信源熵,(一)信源的分类 信源的分类方法依信源特性而定,一般按照信源发出的消息在时间上和幅度上的分布情况,把信源分为:连续信源:发出在时间上和幅度上都是连续分布的连续消息的信源;离散信源:发出在时间上和幅度上都是离散分布的信源.离
2、散信源又可以细分为:,4,信息论与编码-信源及信源熵,(1)离散无记忆信源:所发出的各个符号之间是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率.(2)离散有记忆信源:发出的各个符号之间不是相互独立的,各个符号出现的概率是有关联的.,5,信息论与编码-信源及信源熵,也可以根据信源发出一个消息所用符号的多少,将离散信源分为:发出单个符号的离散信源:信源每次只发出一个符号代表一个消息;发出符号序列的离散信源:信源每次发出一组含二个以上符号的符号序列代表一个消息.将以上两种分类结合,就有四种离散信源:,6,信息论与编码-信源及信源熵,(1)发出单个符号
3、的无记忆离散信源;(2)发出符号序列的无记忆离散信源;(3)发出单个符号的有记忆离散信源;(4)发出符号序列的有记忆离散信源.一类重要的符号序列有记忆离散信源-马尔可夫信源:某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号.,7,信息论与编码-信源及信源熵,(二)离散信源的度量2.1 信源的数学模型及其分类 正如绪论中所述,在通信系统中收信者在未收到消息以前,对信源发出什么消息是不确定的,所以可用随机变量或随机矢量来描述信源输出的消息.或者说,用概率空间来描述信源.,8,信息论与编码-信源及信源熵,离散信源的数学模型就是离散型的概率空间:其中概率p(xi)(i=1,2
4、,n)称为符号xi的先验概率,应满足p(xi)=1 它表示信源可能取的消息(符号)只有n个:x1,x2,xn,而且每次必定取其中一个.,9,信息论与编码-信源及信源熵,然而,很多实际信源输出的消息往往是由一系列符号所组成的.例如中文信源的样本空间集合x是所有中文文字及标点符号的集合.由这些单字和标点符号组成的消息即是中文句子和文章.从时间上看,中文信源的输出是时间上离散的一系列符号,而其中每个符号的出现是随机的,由此构成了不同的中文消息.,10,信息论与编码-信源及信源熵,又例如对离散化的平面图像来说,从空间上来看是一系列离散的符号,而空间每一点的符号(灰度)又都是随机的,由此形成了不同的图像
5、.所以我们可以把一般信源输出的消息看作为时间或空间上离散的一系列随机变量,即随机矢量.这样,信源的输出可用N维随机矢量(x1,x2,xN)来描述,其中N可为有限正整数或可数的无限值.,11,在上述随机矢量中,若每个随机变量xi(i=1,2,N)都是离散的,则可用N重离散概率空间来描述这类信源.即若N维随机矢量 X=(x1,x2,xN)中xi X,i=1,2,n则 X=(x1,x2,xN)XN,信息论与编码-信源及信源熵,12,信息论与编码-信源及信源熵,信源的N重概率空间为:这个空间共有qN个元素.在某些简单的情况下,信源先后发出的一个个符号彼此是统计独立的,则N维随机矢量的联合概率分布满足p
6、(X)=p(xi),即N维随机矢量的联合概率分布可用随机矢量中单个随机变量的概率乘积来表示.这种信源就是离散无记忆信源.,13,信息论与编码-信源及信源熵,一般情况下,信源先后发出的符号之间是互相依赖的.例如在中文字母组成的中文消息中,前后文字的出现是有依赖的,不能认为是彼此不相关的,放在N维随机矢量的联合概率分布中,就必然要引入条件概率分布来说明它们之间的关联.这种信源即有记忆信源.表述有记忆信源要比表述无记忆信源困难得多.实际上信源发出的符号往往只与前面几个符号的依赖关系较强,而与更前面的符号依赖关系就弱.为此可以限制随机序列的记忆长度.当记忆长度为m+1时,称这种有记忆信源为m阶马尔可夫
7、信源.也就是信源所发出的符号只与前m个符号有关,与更前面的符号无关.,14,信息论与编码-信源及信源熵,这样就可用马尔可夫链来描述信源.描述符号之间依赖关系的条件概率为 p(xi|xi-1xi-2xi-m)=p(xi|xi-1xi-2,xi-m)如果条件概率与时间起点j无关,即信源输出的消息可看成为时齐马尔可夫链,则此信源称为时齐马尔可夫信源.,15,信息论与编码-信源及信源熵,2.2 离散信源的熵和互信息2.2.1 自信息量 在讨论了信源的数学模型,即信源的数学描述问题后,很自然接着会提出这样一个问题,即信源发出某一符号xi(i=1,2,n)后,它提供多少信息量?这就是要解决信息的度量问题.
8、在通信的一般情况下,收信者所获取的信息量,在数量上等于通信前后不确定性的消除(减少)的量.,16,信息论与编码-信源及信源熵,具体地说,如信源发某一符号ai,由于信道中噪声的随机干扰,收信者收到的一般是ai的某种变型bi收信者收到bi后,从bi中获取关于ai的信息量以I(ai;bi)表示,则有 I(ai;bi)收到bi前,收信者对ai存在的不确定性(先验不定度)收到bi后,收信者对ai仍然存在的不确定性(后验不定度)收信者收到bi前、后,对ai存在的不确定性的消除.,17,信息论与编码-信源及信源熵,为了便于引出一个重要的结果,我们不妨假定信道中没有噪声的随机干扰(即无噪信道).这时,显然有b
9、iai本身,收信者确切无误地收到信源发出的消息那么,(收到bi后,对ai仍然存在的不确定性)0同时,(收到bi后,从bi中获取关于ai的信息量I(ai;bi)就变成(收到ai后,从ai中获取关于ai的信息量I(ai),这个I(ai)也就是ai本身所含有的信息量,即能提供的全部信息量,我们称之为ai 的“自信息量”.,18,信息论与编码-信源及信源熵,根据上述的一般原则,就可有:I(ai)收到ai前,收信者对信源发ai的不确定性.这就是说,信源符号ai的自信息量,在数量上等于信源发符号ai的不确定性.ai的自信息量度量问题,就转变为信源发符号ai的不确定性的度量问题.我们知道,不确定性是与可能性
10、相联系的,而可能性又可由概率的大小来表示所以可以断言,自信息量I(ai)一定是信源发符号ai的先验概率p(ai)的某一函数.,19,信息论与编码-信源及信源熵,一个重要的结论:设某单符号离散信源的概率空间为 其中 且,信源X发 符号ai(i1,2,n)能提供的信息量,即ai(i1,2,n)的自信息量(简称自信量)为:,20,信息论与编码-信源及信源熵,I(ai)=logp(ai)=log1/p(ai)(2.1)这就是说,信源X的任一符号ai(i1,2,n)所含有的自信息量I(ai)(i1,2,n)等于符号ai的先验概率p(ai)(i1,2,n)的倒数的对数.只要测定了先验概率p(ai),就可定
11、量地计算符号ai的自信息量,所以,我们称由(2.1)式表示的函数I(ai)为“信息函数”.,21,信息论与编码-信源及信源熵,由(2.1)式表示的自信量I(ai)有两方面的含意:信源X发符号ai以前,收信者对ai存在的先验不确定性;信源X发符号ai后,ai所含有的(或能提供的)全部信息量.我们说,信息函数(2.1)式的导出,解决了信息的度量问题,这是香农信息理论的一大功勋.由(2.1)式可看出,只要测定先验概率p(ai)(香农信息理论假定,p(ai)是先验可知,或事先可测定的),就可计算符号ai的自信息量.所以,有时把(2.1)式度量的信息,称为“概率信息”.,22,信息论与编码-信源及信源熵
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 信源
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5926978.html