多媒体数据压缩(改).ppt
《多媒体数据压缩(改).ppt》由会员分享,可在线阅读,更多相关《多媒体数据压缩(改).ppt(91页珍藏版)》请在三一办公上搜索。
1、第6章多媒体数据压缩,2,本章主要内容,6.1 数据压缩技术概述6.2 数据压缩技术原理6.3 JPEG静止图像压缩标准6.4 运动图像压缩标准MPEG,3,6.1 数据压缩技术概述,6.1.1 数据压缩的概念,采样数据不仅仅是所代表的原始信息本身,还包含着其它一些没必要保留的(确定的、可推知的)信息,即存在着数据冗余。M=D-d 其中M表示实际媒体信息,D表示数字化后的采样数据,d表示数据冗余量。,数据压缩就是从采样数据中去除冗余,即保留原始信息中变化的、特征性信息,去除重复的、确定的或可推知的信息,在实现更接近实际媒体信息描述的前提下,尽可能的减少描述用的信息量。,4,6.1.2 多媒体数
2、据的冗余,随着计算机技术的高度发展以及通信、计算机和大众传媒三大技术的相互融合,计算机已经不再局限于数值计算、文字处理的范畴,而成为处理图形、图像、视频、音频等多种信息的工具。但数字化后的声音、图像、视频和音频等多媒体数据是非常庞大的。,例如:一页在A4(216mm300mm)纸上的照片,以300dpi(12像素/mm)采样,每个像素用24位真彩色信号表示,其数据量约为27MB/页,650MB的CD-ROM只可放24页;双声道立体声光盘,采样率是44.1kHz,采样精度16位,一秒钟数据量是44.1162/8=172KB/s,一张CD只能存放约1小时的声音。,5,6.1.2 多媒体数据的冗余,
3、对于如此巨大的多媒体数据,如果不经过压缩,不仅超出了计算机的存储和处理能力,而且在现在的通信信道的传输速率下,是无法完成大量多媒体信息的传输的,多媒体数据的高速传输和储藏所需要的巨大容量已经成为多媒体数据通信技术的最大障碍。因此,为了存储、处理和传输这些数据,必须进行压缩。,6,6.1.2 多媒体数据的冗余,一般而言,多媒体数据中存在的数据冗余情况主要有以下几种(P107):,信息熵冗余空间冗余时间冗余结构冗余知识冗余视觉冗余听觉冗余纹理的统计冗余,信息熵冗余,信息熵定义为一组数据所表示的信息量,即 式中,E为信息熵,N为数据的种类(或称码元)个数,Pi为第i个码元出现的概率。一组数据的数据量
4、显然等于各记录码元的二进制位数(即编码长度)与该码元出现的概率乘积之和,即 式中,D为数据量,为第i个码元的二进制位数。一般取(如ASCII编码把所有码元都编码为7比特),这样得到的D必然大于E。这种因码元编码长度的不经济带来的冗余称为信息熵冗余或编码冗余。,信息熵冗余,图 26个英文字母相对频率,空间冗余-同一景物表面上各采样点的颜色之间往往存在着空间连贯性,但是基于离散像素采样来表示物体颜色的方式通常没有利用景物表面颜色的这种空间连贯性,从而产生了空间冗余。-可以通过改变物体表面颜色的像素存储方式来利用空间连贯性,达到减少数据量的目的。,时间冗余,-这是序列图像(电视图像、运动图像)表示中
5、经常包含的冗余。-序列图像一般为位于一时间轴区间内的一组连续画面,其中的相邻帧往往包含相同的背景和移动物体,只不过移动物体所在的空间位置略有不同,所以后一帧的数据与前一帧的数据有许多共同的地方,这种共同性是由于相邻帧记录了相邻时刻的同一场景画面,所以称为时间冗余。,结构冗余-在有些图像的纹理区,图像的像素值存在着明显的分布模式,例如,方格状的地板图案等。我们称此为结构冗余。-已知分布模式,可以通过某一过程生成图像。,知识冗余-有些图像的理解与某些知识有相当大的相关性。例如,人脸的图像有固定的结构。这类规律性的结构可由先验知识和背景知识得到,我们称此类冗余为知识冗余。-根据已有的知识,对某些图像
6、中所包含的物体,我们可以构造其基本模型,并创建对应各种特征的图像库,进而图像的存储只需要保存一些特征参数,从而可以大大减少数据量。知识冗余是模型编码主要利用的特性。,视觉冗余-事实表明,人类的视觉系统对图像场的敏感性是非均匀和非线性的。然而,在记录原始的图像数据时,通常假定视觉系统是线性和均匀的,对视觉敏感和不敏感的部分同等对待,从而产生了比理想编码(即把视觉敏感和不敏感的部分区分开来编码)更多的数据,这就是视觉冗余。,-通过大量实验,发现以下视觉的非均匀特征。视觉系统对图像的亮度和色彩度的敏感性相差很大;随着亮度的增加,视觉系统对量化误差的敏感度降低;人眼的视觉系统在图像的边缘和非边缘区域分
7、开来处理;人类的视觉系统总是把视网膜上的图像分解成若干个空间有向的频率通道后再进一步处理。,图像区域的相同性冗余-它是指在图像中的两个或多个区域所对应的所有像素值相同或相近,从而产生的数据重复性存储,这就是图像区域的相似性冗余。,-在以上的情况下,记录了一个区域中各像素的颜色值,则与其相同或相近的其他区域就不在记录其中各像素的值。-向量量化方法就是针对这种冗余性的图像压缩编码方法。,纹理的统计冗余-有些图像纹理尽管不严格服从某一分布规律,但是它在统计的意义上服从该规律。利用这种性质也可以减少表示图像的数据量,所以我们称之为纹理的统计冗余。,思考:,图像序列中的两幅相邻图像,后一幅图像与前一幅图
8、像之间有较大的相关,这是()。(A)空间冗余(B)时间冗余(C)信息熵冗余(D)视觉冗余,16,下列哪一种说法是正确的:信息量等于数据量与冗余量之和信息量等于信息熵与数据量之差信息量等于数据量与冗余量之差信息量等于信息熵与冗余量之和,17,18,6.1.3 数据压缩技术的发展过程,20世纪40年代,人们开始系统地研究数据压缩技术;主要表现在数据压缩算法方面:首先是Claude Shannon与的Shannon-Fano编码方法;1952年,提出了Huffman编码方法;1968年,P.Elias 发展了Shannon-Fano编码,构造出更为完美的Shannon-Fano-Elias 编码。1
9、976年,J.Rissanen 提出了一种可以成功地逼近信息熵极限的编码方法算术编码。1982年,Rissanen 和G.G.Langdon 一起改进了算术编码。1977年,Jacob Ziv和Abraham Lempel提出了LZ77编码算法,78年又作了改进,被称为LZ78编码算法。1984年,Terry Welch提出了LZ78算法的变种算法LZW。LZ77、LZ78、LZW三种压缩技术就是目前无损压缩领域中最为流行的、被称为“字典式编码”的压缩技术。,19,6.1.3 数据压缩技术的发展过程(续),数据压缩标准逐渐形成,有损压缩算法快速出现。1986年开始制定静态图像压缩标准,1994
10、 年后成为国际标准,称为JPEG标准。ITU制定的电视会议系列标准(H.261、H.262、H.263、H.264等)以及由ISO制定的视频系列标准(MPEG-1、MPEG-2、MPEG-4)中,均采用了有损压缩原理作为其核心压缩算法。其中的MPEG-4标准(相当于ITU的H.263和H.263+标准)是为了适应网络视频的需求特点而制定的,具有更高的压缩比、支持并发数据流编码、基于内容的交互操作、增强的时间域随机存取、容错、基于内容的尺度可变性等新特性。,20,6.1.4 数据压缩的分类,1、按照压缩内容,分为音频数据压缩、静态图像数据压缩、视频数据压缩和其他数据文件压缩等四种类型。,2、按照
11、压缩方式,分为对称压缩和非对称压缩两种类型。,3、按照压缩效果,分为有损压缩与无损压缩两种类型。普通数据文件,一般采用无损压缩,对于冗余度较小的图像,需要采用有损压缩。,21,4、按照算法思想,分为信息熵编码、预测编码、变换编码、混合编码以及其他编码等五种,每种类型包含了一些具体算法,如下图。,22,6.1.5 数据压缩的主要指标,衡量不同压缩方法优劣的技术指标是相同的,主要包括以下几个方面。,1)压缩比:指压缩前后的数据量之比,它反映了施加某压缩算法之后,数据量减少的比例;2)恢复效果:指经解压缩算法对压缩数据进行处理后所得到的数据与其表示的原信息的相似程度;3)算法简单、速度快:主要指实现
12、算法的复杂度。,23,6.2 数据压缩技术原理,6.2.1 信息熵与编码,1、信息熵的概念 信息论中,编码数据量与所表示的信息量以及冗余信息之间的关系为:数据量信息量冗余量 信息是对所表现的事件中不确定性的描述,信息量多少与不确定性的程度有关。通常,可以用概率来描述不确定性的大小。某信息描述的事件状态的出现概率越小,其不确定性越大,其表达的信息量就越多,冗余量就越少。,信息熵,信息熵用来度量信息量的大小。对于单个事件(如字符)来说,其信息熵定义为:H(i)=-log2(Pi)(bit)(1)公式(1)表示发生概率为Pi的事件i所具有的信息熵为H(i),单位为bit(比特)。,24,25,对于一
13、个消息队列(如字符串)的信息熵定义为:H(X)=-Pilog2(Pi)=PiH(i)(2)其中,Pi表示某一事件i发生的概率。例如:有一字符串“babbdcaacb”包含a、b、c、d四种字符,其长度为10,字符a、b、c、d分别出现了3、4、2、1次,则a、b、c、d在信息中出现的概率分别为0.3、0.4、0.2、0.1,它们的熵分别为:H(a)=-log2(0.3)1.737(bit)H(b)=-log2(0.4)1.322(bit)H(c)=-log2(0.2)2.322(bit)H(d)=-log2(0.1)3.322(bit),26,每种字符的信息熵就是该字符编码所用的理想位数(二进
14、制)。整条信息的熵就是表达整个字符串需要的位数(这里用字符出现的次数代替概率):,H(X)=-Pilog2(Pi)=H(a)3+H(b)4+H(c)2+H(d)1=18.465(bit),若用ASCII编码,需要多少bit?,27,2、编码,编码实质上是对要处理的源数据或源文件按一定的规则进行变换(映射),力图用尽可能少的符号代码来表示较多、较长的源符号信息。编码方法中的码字(代码)有固定长度和可变长度两种。,3、压缩模型,模型是规则和数据的集合,即:压缩算法=模型+编码,28,4、压缩、还原,压缩是指设法去掉部分或全部冗余,从而减少文件或数据所占的存储空间;还原(解压缩)则是指利用相反的算法
15、使文件或数据恢复原状。,29,30,6.2.2 无损压缩编码,1、Shannon-Fano编码,简称为S-F编码,是一种变长编码,其基本思想是按信源符号出现的概率大小进行排序,出现概率大的分配短码,反之则分配长码。具体编码过程如下:,(1)信源符号按概率递减顺序排列。(2)把符号序列分成上下两部分,使上下两部分的概率和相等或接近相等。(3)对上部分子序列编码为“0”,相当于左子树,对下部分子序列编码为“1”,相当于右子树。(4)重复上述步骤,直到每个子序列只包含一个符号为止。,31,举例:有信源字符序列S为:aaabbceeehddabafffbdddgghhabccedabdgghha 其长
16、度为40个字符,由a、b、c、d、e、f、g、h共8种字符构成。假设在编码之前,每种字符出现的概率已由某种模型统计出来,用-来表示,具体值分别为:a-8,b-6,c-3,d-7,e-4,f-3,g-4,h-5,32,a-8d-7b-6h-5e-4g-4c-3f-3,a-8d-7b-6h-5e-4g-4c-3f-3,(a)第一步,(b)第二步,解:首先将信源符号按概率递减顺序排列,形成图(a)所示结果,然后,再把符号序列分成上下两部分,使上下两部分的概率和相等或接近相等,形成图(b)所示结果。其中上部分符号序列概率和为21,编码为0;下部分为19,编码为1。,33,最后再重复第二步,不断对子符号
17、序列进行划分,最后得到一棵二叉树,如图(c)所示。,34,最终得到的符号编码分别为:a-00,b-011,c-1110,d-010,e-101,f-1111,g-110,h-100。信源字符序列S的编码总位数L等于每种字符编码位数与字符出现次数乘积的和,即:L=2836433734433435 118(位)如果直接用ASCII码,则要用408320位。因此,S-F编码实现了数据压缩。,35,2、Huffman编码,其编码思想与Shannon-Fano编码方法基本一致,但构造二叉树的方法则相反,不是自上而下,而是自下而上、从树叶到树根生成二叉树。具体编码过程如下:,(l)将信源符号按概率递减顺序
18、排列;(2)把两个最小的概率加起来,作为新符号的概率;(3)重复步骤(1)和(2),直到概率达到“1”为止;(4)在每次合并消息时,将被合并的消息赋于“1”和“0”或“0”和“l”;(5)寻找从每一信源符号到概率为“1”处的路径,记录下路径上的“l”和“0”;(6)对每一符号写出从码树的根到终结点的“l”、“0”序列。,36,例如,对于信源 其编码过程如下:,最后得到的编码为:x1 01,x2 10,x3-11,x4 000,x5-0010,x6-0011。其中x1、x2、x3的码长为2,x4的码长为3,x5、x6的码长为4,平均码长为2.45。,0.05,0.15,0.45,0.55,信源符
19、号及其概率如下:求其Huffman编码,信息熵及平均码长。,37,Huffman编码体现了统计编码的思想。Huffman编码的基本原理是按信源符号出现的概率大小进行排序,出现概率大的分配短码,出现概率小的则分配长码。,38,39,3、算术编码,算术编码也是一种信息熵编码方法,它用0到1之间的一个实数对输入的信息进行编码。用到两个基本的参数,一是信源符号的概率,二是信源符号对应的编码区间。一般的信源符号集x可表示为:,对于一个给定的信源符号输入序列S=x1x2x3xm,其中xi属于信源符号集X中的任意符号,可按以下过程进行编码:,40,1)定义初始区间0,1),表示一个0到1之间的半开区间,并规
20、定初始概率p0=0;2)根据信源中各符号的概率值,把0,1)区间划分成N个子区间Q1,Q2,Qn,其中:Qi=Li,Ri),Li=,Ri=Li+Pi,i=1,2,,N(3)3)设置输入序号i的初值,i=1表示开始输入第一个信源符号。,41,4)当输入符号为xi(xi 对应信源符号集X中的第k个符号),可按以下公式定义新的子区间Ii,并计算区间长度di。Ii=li,ri)()li=li-1+di-1()ri=li-1+di-1()di=ri-li()5)i=i+1,如果还有信源符号未输入完毕,则转第4)步继续输入下一个信源符号。如果全部输入完毕,则当前区间Ii=li,ri)中的任意数就是所需的编
21、码。,42,例:有四个符号a1、a2、a3、a4的信源,其对应概率分别为0.5、0.25、0.125、0.125。如果输入序列为S=a2a1a3a2a4。根据以上编码过程,得如下结果:,43,从以上的编码过程可以看出以下几个问题:,1)算术编码器对整个消息只产生一个码字,这个码字是在间隔0,1)中的一个实数,因此译码器在接受到表示这个实数的所有位之前不能进行译码。)运算中出现溢出是一个明显的问题,但多数机器都有16位、32位或者64位的精度,因此该问题可使用比例缩放方法解决。3)算术编码也是一种对错误很敏感的编码方法,如果有一位发生错误就会导致整个消息译错。,44,4、行程编码,行程编码(RL
22、E)通过统计信源符号中的重复个数,并以格式来编码。适用于压缩包含大量重复信息的信源。其基本思想是:按行存储一个颜色值和相同色值的像素个数。如下图。,45,说明:,RLE压缩编码尤其适用于计算机生成的图像,对减少图像文件的存储空间非常有效。然而,RLE对颜色丰富的自然图像就显得力不从心,如果使用RLE编码方法,不仅不能压缩图像数据,反而可能使原来的图像数据变得更大。,46,5、词典编码,词典编码主要是利用编码数据本身存在字符串重复特性来实现数据压缩的。算法的核心就是如何动态地形成词典,以及如何选择输出格式以减小冗余。词典编码又可分为两类:第一类词典编码的思想是:查找正在压缩的字符序列是否在以前输
23、入的数据中出现过,然后用已经出现过的字符串替代重复的部分,并将指向重复字符串的指针作为输出编码。,指针P指向了重复字符串“abc”,所以,当再次出现相同字符串时,则输出指针P。,47,第二类词典编码的思想是:从输入的数据中创建一个由短语组成的“编码词典”,编码数据过程中当遇到已经在词典中出现的“短语”时,编码器就输出这个词典中短语的“索引号”,而不是短语本身,如下图。,48,6.2.3 有损压缩编码介绍,有损数据压缩编码方法通常用于对静态图像、音频以及视频等多媒体信息的编码压缩,这些多媒体信息大多数是通过对模拟信息的数字化(采样与量化)而得到的。,1、预测编码,1)预测编码的基本概念,预测编码
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 多媒体 数据压缩
链接地址:https://www.31ppt.com/p-5953735.html