《相关信源编码》PPT课件.ppt
《《相关信源编码》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《相关信源编码》PPT课件.ppt(98页珍藏版)》请在三一办公上搜索。
1、第3章 相关信源编码,3.1 预测编码 3.2 变换编码,3.1 预 测 编 码,预测编码(Predictive Coding)是数据压缩三大经典技术(统计编码、预测编码、变换编码)之一。预测编码是建立在信号(语音、图像等)数据的相关性之上,较早用于信源编码的一种技术。它根据某一模型,利用以往的样本值对新样本进行预测,以减少数据在时间和空间上的相关性,达到压缩数据的目的。,但实际利用预测器时,并不是利用信源的某种数学模型,而是基于估计理论、现代统计学理论设计预测器,这是因为信源的数学模型的建立是十分困难的,有时无法得到其数学模型,例如,时变随机系统。利用信源输出产生的任何影响,并不直接涉及到信
2、源本身,所以预测器可以独立进行工作。利用现代统计学和控制论的“时间序列分析”理论,可以较好地解决复杂系统的输出状态问题。预测器对样本的预测,通常是利用样值的线性或非线性函数关系预测现时的系统输出。,由于非线性的复杂性,大部分预测器均采用线性预测函数。科尔莫戈罗夫(Kolmogorov)、维纳(Wiener)、卡尔曼(Kalman)等人在20世纪40年代对线性预测理论就作出了杰出贡献,他们建立了以最小均方量化误差为准则的最优预测理论与方法,广泛应用于通信工程和航天航空飞行器的控制等方面,促进了数字技术的迅速发展,形成了用于数据压缩的预测编码理论。,3.1.1 预测编码的基本原理 对于有记忆信源,
3、信源输出的各个分量之间是有统计关联的,这种统计关联性可以加以充分利用,预测编码就是基于这一思想的技术。它不直接对信源输出的信号进行编码,而是将信源输出信号通过预测变换后再对信源输出与被预测值的差值进行编码,其原理图如图3-1所示。,图31 预测编码原理图,设信源第i瞬间的输出值为ui,而根据信源ui的前k(ki)个样值,给出的预测值为,(31),式中:f()预测函数。f可以是线性也可以是非线性函数。线性预测函数的实现比较简单,这时预测值为,(32),式中:aj预测系数。则第i个样值的预测误差值为,(33),根据信源编码定理,若直接对信源输出ui进行编码,则其平均码长 应趋于信源熵:,(34),
4、若对预测变换后的误差值e进行编码,其平均码长 应趋于误差信号熵:,(35),显然,从信息论观点,预测编码能压缩信源数码率的必要条件为,(36),由于信息熵是概率分布的泛函数,故概率分布越均匀,熵越大;概率分布越不均匀,熵就越小,可以证明预测差值的概率分布比原始信号的概率分布要集中,所以H(E)H(U),则式(36)成立。信源通过预测以后数据压缩(或连续时的频带压缩)倍数就越大。从预测编码原理可以看出,实现预测编码要进一步考虑三个方面的问题。首先是预测误差准则的选取,这个问题决定预测质量标准;其次是预测函数的选取;最后一个问题是预测器输入数据的选取。,后两个问题决定预测质量的好坏。关于预测函数的
5、选取,一般是采用工程上比较容易实现的线性预测,一旦线性方程确定下来以后,预测的精度与k值大小有直接关系。k愈大,预测愈精确,但设备愈复杂;k愈小,精度愈差,但设备愈简化,所以k值大小要根据设计要求和实际效果而确定。关于预测器输入数据的选取,是指选取何处的原始数据作为预测器的输入依据。一般可分为开环、闭环和开环闭环两者的混合三类。开环直接从信源输出选取待测瞬间i的前k位,即i-1,i-2,i-k位作为预测器的输入依据,闭环则取误差函数的输出端反馈到预测器中的i位以前的k位作为预测器的主要输入依据。,关于预测误差准则的选取,是指预测误差所依据的标准。目前大致可采用四种类型准则,它们分别是最小均方误
6、差(MMSE)准则、功率包络匹配(PSEM)准则、预测系数不变性(PCIV)准则和最大误差(ME)准则。其中最小均方误差准则是最基本、最常用的准则;而预测系数不变性的主要特点是,它预测系数与输入信号统计特性无关,因而能对多种混合信号进行有效的预测;最大误差准则主要用于遥测数据压缩。可以证明,在均方误差准则下,按条件期望值进行预测是最佳预测。,然而它必须已知ui的联合概率密度函数,这一般是很困难的。但是对于广义平稳正态过程,只要已知二阶矩相关函数就等效于已知ui的联合概率密度函数。这时,线性预测与最佳预测是等效的。因为对正态信源,线性无关与统计独立是完全等效的。所以,能完全解除线性相关性的信源,
7、即是符合统计独立的无记忆信源。,3.1.2 预测方法 预测就是从已收到的符号来提取关于未收到的符号信息,从而预测其最可能的值作为预测值;并对它与实际值之差进行编码,达到进一步压缩码率的目的。由此可见,预测编码是利用信源的相关性来压缩码率的;对于独立信源,预测就没有可能,因而预测编码也就无用了。预测的理论基础主要是估计理论。估计就是用实验数据组成一个统计量,作为某一物理量的估值或预测值。,最常见的估计是利用某一物理量在干扰下测定的实验值,这些值是随机变量的样值,可根据随机量的概率分布得到一个统计量作为估值。若估值的数学期望等于原来的物理量,就称这种估计为无偏估计;若估值与原物理量之间的均方误差最
8、小,就称之为最佳估计。用来预测时,这种估计就成为最小均方误差的预测,所以也就认为这种预测是最佳的。利用预测值编码的方法可分为两类。一类是对实际值与预测值之差进行编码。在连续信源的情况下,就是对此差值量化或取一组差值进行矢量量化。,由于相关性很强的信源可较精确地预测待编码的值,该差值的方差将远小于原来的值,在同样失真要求下,量化级数可明显地减小,从而较显著地压缩码率。对于离散信源也有类似的情况。另一类方法是根据差值的大小,决定是否需传送该信源符号。例如可规定某一可容许值,当差值小于它时可不传送。对于连续函数或相关性很强的信源序列,常有很长一串符号可以不传送而只需传送这串符号的个数,,这样,能大量
9、压缩码率。在用外推法预测时,也可根据已知符号,通过预测规定一扇形区,在该扇形区内的实际值都可不传送。这类方法尚可提出一些其他形式,一般是按信宿要求设计的,也就是失真应能满足信宿需求。,1.线性预测 若样值和预测值之间呈线性关系,这种预测称为线性预测,否则称为非线性预测。常用的几种线性预测方案有:(1)前值预测,即。(2)一维预测,即用ur的前面已知的k个已知样值预测ur的值,预测公式如式(32)所示。(3)二维预测,也称为非线性预测,即预测值与样值之间为非线性关系。,在图像数据压缩中,一维预测就是用同一扫描行中的前几个已知的样值预测一个新值,而二维预测就是不但要用ur的同一扫描行以前的几个已知
10、的采样值,还要用ur的前几行中的采样值来预测ur。,2.最优预测 最优线性预测就是按照某种准则,选择线性预测系数使得预测误差为最小。最基本、最常用的准则是均方误差(MSE,MeanSq uareError),换句话说就是使 2e=Ee2r为最小。假如信源u是平稳随机过程,预测系数am,m1,2,,k就是2e的变量,求2e=E e2r 对各个am的偏导数,并令其为零,就可求出 E e2r为极小值时的各个线性预测系数am。,(37),于是得:,(38),由式(38)得:,(39),式中:Eurjum为urj和um的协方差,记作 Rrj,m,m,j1,2,k。由式(39)得:Rr,m Ea1ur1u
11、ma2ur2umakurkum a1Rr1,ma2Rr2,makRrk,m,(310),3.自适应预测 当信源是一个平稳随机过程,可以使用固定参数预测器进行预测。当信源为非平稳过程,或总体平稳,但局部不平稳时,利用固定参数设计预测器,显然就不合理了。对这种信源应采用自适应预测编码的方法。所谓自适应预测就是预测器的预测系数不固定,随信源特性而有所变化。如果充分利用信源的统计特性及其变化,重新调整预测系数,,这样就使得预测器随着输入数据的变化而变化,从而得到较为理想的输出。有些信源的统计特性从整体上看是非平稳过程,但在一定的时间(或范围)内把它看作平稳过程,还是合理的,例如,图像的平坦区,语音信源
12、的基音段。因此,可以把信源看成由多个平稳子过程构成的组合信源。可以证明组合信源模型的熵低于把非平稳信源作为单一平稳信源的熵,这样采用自适应预测可进一步减小预测误差和降低数码率。自适应预测方法很多,一般可分为线性自适应预测和非线性自适应预测两大类。,3.1.3 预测编码的基本类型 预测编码,特别是线性预测编码已在信息与通信系统的信息处理中被广泛地采用,吴伟陵总结出了其中最常用的四种。,1DPCM型 DPCM即差分脉码调制,其工作原理如图32所示。图32中,信源输出序列ui即为DPCM输入序列。ui与预测值 相减得误差值ei,再将ei量化成数字序列xi。经信道传输后变成yi序列。在接收端将接收到的
13、yi与在接收端形成的预测值 相加,可得恢复后的信源序列,同时又将 反馈到接收端线性预测器,以求得下一瞬间的预测值。由于预测误差ei的熵(或者方差)远远低于输入序列ui的熵(或者差值),所以经预测后可以很大程度地提高压缩信源的数码率。DPCM型编、译码原理及误差在3.1.4节中介绍。,图32 DPCM型原理图,2PCM型 PCM的工作原理如图33所示。PMC与DPCM主要区别有两点。一是,线性预测器输入的原始数据的选取不一样。PCM直接从输入序列即信源输出ui中选取,而DPCM则从量化器输出的xi中选取。另一个不同点是,量化器的位置不同,PCM在反馈环外,属开环型,DPCM则在环内,属闭环型。若
14、仅从预测角度看,基本原理是一样的,都是由线性预测滤波器构成的。由于它没有DPCM的反馈预测环路,因而其实现比较简单。若将PCM型中的量化器改成一种霍夫曼编码器,则可更好地完成信源的数据压缩功能。,图33 PCM型原理图,3NFC型 噪声反馈编码(NFC)是PCM的改进型,其原理如图34所示。由于PCM型的量化器位于反馈环外,量化误差不能像DPCM那样进行反馈压减,那就不妨在PCM型的基础上加以改进。即把xi与ei相减后的量化误差q i,通过一加权滤波器再与diui 相减,这样通过增加一个反馈闭合环路可以将量化误差(噪声)纳入闭合环路内以达到压减量化误差的目的。,所以噪声反馈型实质上是上述DPC
15、M与PCM的混合型,它采用类似于PCM的开环线性预测,同时又采用类似于DPCM型的闭环来压减量化误差。,图34 噪声反馈编码原理图,4预测误差门限型 设信源输出序列为u0u1u2uiui1,若使用前值预测,计算预测误差:|ei|ui-ui1|(311)若|ei|K,则不传送;若|ei|K,则传送。其中K为最大误差的门限值,它是误差容限值,即信宿可接受的最大误差值。信号间相关性越强,在一定的误差容限值K之下,传送的数据就越少;反之信号相关性越弱,传送的数据就越多。若选择的预测值不仅仅是前一个样值,,而是前N个样值的线性加权和,则可构成高阶预测误差门限型,其原理与上述零阶预测一致,但是由于这样引入
16、了非线性的门限比较器,所以它实质上是一种非线性预测器。,3.1.4 DPCM编译码原理 在3.1.2节讨论的预测方法,力求从理论上达到预测误差最小或接近最小。这样往往使计算复杂,因而实现起来较困难,而且一般还需有精确的统计特性。所以实际上,常采用差值编码或前值预测编码来解除相关性以压缩码率。这在信源序列相关性很强和邻值间的相关系数接近1时是很有效的,也是最常被应用的方法。此时预测值是相邻两个符号值之差或者就是前一个符号的值,并对此预测值进行编码。这种方法不但可用于连续信源,也可用于离散信源。,差分脉码调制和增量调制这两种方法常用于语音编码,当然也能用于图像编码。语言和图像这两种常见的信源,邻值
17、间的相关性一般都是相当强的,因为采样频率必须较高,才能保证质量。从采样定理可知,采样频率必须大于信号频带的两倍。对于语音信号,若频带过小,会丢失高频分量而影响音质。对于图像信号,频带意味着水平清晰度,频带不够就使图像模糊。采样频率足够高,相邻样值的时间间隔就小,相关系数就会接近1,适宜用差值编码。,差值编码中的差分脉码调制的工作原理已在3.1.3节中介绍过,下面介绍DPCM的编译码原理。最简单的DPCM是增量调制,又称为M。这时差值的量化级定为2。也就是当差值为正时,用“1”表示;差值为负时,用“0”代表。每个差值只需1比特。一般地说,要减少量化失真,则必须增加取样频率fm,即不能再采用常用的
18、2fm,其中fm为信源上限频率。在译码时,为相反变换,即规定一个增量值,当收到“1”时在前一个值中加上一个值作译码输出;,收到“0”时,则在前一个值中减去一个值作为译码输出。其原理图如图35所示,编、译码器的输入、输出波形如图36所示。如果在信道中不传送预测误差ei,而是传送线性预测器中的各项系数(参量)ai,往往传送参数ai所需的数码率远远低于传送原始信源数据ui的数码率。在接收端可以采用一随机噪声序列代替原来接收到的序列yi,则在一定条件下也可再现原始信源输出序列ui。显然,它也是一种变型线性预测编码。在语音压缩中,称它为线性预测声码器(Vocoder),可见,它是DPCM的一个特例。由于
19、在DPCM型中,量化器位于反馈环内,故又称为闭环型,它可以使环内残存量化误差大为减少。,图35 DPCM增量调制编、译码原理,图36 DPCM增量调制编、译码器的输入、输出波形(a)编码器输入及编码输出;(b)译码器的恢复波形,由上述分析可见,估值和实际值之间存在着两类误差,一类是量化误差,另一类是过载误差。一般情况下,量化误差的绝对值小于。当阶梯曲线跟不上连续曲线的上升斜率(或下降斜率)时而产生的误差称为过载误差(或失真)。当所选的级差小时,易产生过载失真,此时的量化误差可较小;反之,大时,量化误差将增大,而过载误差就减少。过载误差与信号的斜率有关,斜率越大,越容易出现过载。下面讨论量化误差
20、对系统的影响。由式(32)可知,线性预测器的响应为,其Z变换为,可见,线性预测器的响应为,(312),(313),(314),式中:aj第j项加权系数;k预测阶次。,由图32中接收部分的框图可知:,(315),(316),式(316)表明,线性预测器为一全极点滤波器,故又称为全极点模型。DPCM预测误差信号为,(317),(318),式中:q i量化误差(或量化噪声)。,在接收端恢复后的重建信号为(无传输差错时):,将式(317)、(318)代入式(319)得:,(319),(320),3.2 变 换 编 码,众所周知,信源序列往往具有很强的相关性,要提高信源的效率首先要解除信源的相关性。解除
21、相关性可以在时域上进行(这就是上节中介绍的预测编码),也可以在频域,甚至在广义频域内进行,这就是要在本节中介绍的域变换编码。,在信号分析中,对连续的模拟信号,如果它是周期性的,则可采用傅氏级数展开,若是非周期性的,则可采用傅氏积分(变换)来表示,但无论是级数还是积分,都属于一类正交变换,是从时域展开成频域的变换。同理,对离散的数据序列信号也可引入同样的离散傅氏变换。而且,还可以进一步将其推广为广义的频域变换。,在这一节中,首先从解除相关性的需求入手,寻求最佳的域变换。上一节讨论的在空间和时间域上压缩信源数据冗余量的预测编码的最大特点是直观、简洁、易于实现,特别是容易设计出具有实时性的硬件结构。
22、但是预测编码的不足在于压缩能力有限。具有更高压缩能力的方法和目前最为成熟的方法是变换编码,特别是正交变换编码方法和目前尚处于研究阶段的小波变换编码,这两种方法都具有很强的数据压缩能力。,变换编码的基本原理就是将原来在空间域上描述的信号,通过一种数学变换(例如,傅里叶变换、正交变换等)变换到变换域(如频率域、正交矢量空间)中进行描述。简单地讲,即把信号由空间域变换到变换域中,用变换系数来描述。这些变换系数之间的相关性明显下降,并且能量常常集中于低频或低序系数区域中,这样就容易实现码率的压缩,而且还大大降低了实现的难度。,3.2.1 变换编码的基本原理 设信源输出为一个一维消息U(u1,u2,un
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 相关信源编码 相关 信源 编码 PPT 课件
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5558025.html