毕业设计(论文)图像无损压缩.doc
《毕业设计(论文)图像无损压缩.doc》由会员分享,可在线阅读,更多相关《毕业设计(论文)图像无损压缩.doc(21页珍藏版)》请在三一办公上搜索。
1、图像的无损压缩Research of Image Lossless Compression 专 业:电子信息学 号:姓 名:指导教师:目录内容摘要IABSTRACTII第一章 序论11.1 课题背景11.2 图像的无损压缩的发展现状11.2.1 压缩原理11.2.2 发展现状21.2.3国际标准2第二章 图像的无损压缩思想4第三章 图像无损压缩中的若干重要问题53.1 预测误差的模型化53.2 上下文稀少问题53.3 预测邻域的规模53.4 图像扫描顺序5第四章 图像无损压缩算法中的预测模型74.1 JPEG图像无损压缩算法74.2 JPEG-LS 图像无损压缩算法74.4 基于块方向预测的图
2、像无损压缩算法94.5 基于局部变化率的无损图像压缩方法104.5.2 三元算术编码114.5.3 误差模型化和误差反馈114.5.4 算法复杂性分析及仿真试验结果124.6 步长法124.7 差值法124.8 其他预测模型13结束语14参考文献16内容摘要 近年来,越来越多的研究人员注意到图像压缩的重要性,其主要原因就在于图像文件不仅占据内存空间,而且也占据大量的传输带宽,因此在存储和传输前必须对图像进行压缩。无损压缩要求图像在压缩前和解压缩后应该完全一样,不允许有一位的差错。无损压缩的目标是在不丢失信息的前提下,对给定的图像用尽可能少的数据来表示。本文描述了基于不同解相关模型的无损压缩算法
3、的主要思想,介绍了对图像进行无损压缩等基本方法。接着讨论了实现图像无损压缩算法重点的若干重要问题。本文最后还详述了图像无损压缩算法中的预测编码模型,介绍了预测模型对研究进展的贡献,并就无损压缩领域所存在的一些问题及进一步研究的方向进行了有益的探讨。关键词:无损压缩,熵编码,逐级式传输,预测模型AbstractIn recent years, the importance of the image compression was noted by the more and more researcher. The primary cause not only lies in that the i
4、mage document occupies memory space, and also occupies a large amount of transmission bandwidth, therefore, the image should be compressed before being memorized and transmitted. The lossless compression requires that the image before compression identify with that after compression. The goal of los
5、sless compression is to use as few as possible to transmit the image under the premise of not losing any information. This paper describes the main thought based on the different solution correlation model about lossless compression algorithm, and introduces the essential method of carrying on the l
6、ossless compression to the image. Then the key certain important issues was discussed in realization image lossless compression algorithm. This paper finally introduces the predictive coding model in the image lossless compression algorithm in detail, and also introduces the forecast models contribu
7、tion to study the progress; At last, this paper also analyzes the direction of the lossless compression research, and the problem of the domain in the lossless compression. Key words:lossless compression, entropy coding, progressive transmission, predictive model第一章 序论1.1 课题背景图像是一种重要的信息表达载体,其表达力强,但是
8、数据量庞大,因此图像数据的存储和传输都要求对数据进行有效的压缩。近年来,图像压缩技术获得了飞速发展。按其信息保持的程度, 图像压缩可分为有损压缩和无损压缩两大类。有损压缩允许一定程度的信息丢失, 在满足实际应用的条件下能够取得非常高的压缩比, 因而在多媒体交互式系统、视频传输业务和家庭娱乐等领域得到了广泛的应用。相对而言, 无损压缩因不允许信息丢失, 压缩效率难以提高而发展较慢。然而在遥感图像、医用图像处理等应用领域内, 对于高效的无损压缩方法和高保真度压缩方法有着迫切的需要。一些实际的应用要求这种压缩是无损的,如医学图像、遥感图像、图像存档等。如何在保证无损的前提下尽可能提高图像的压缩效率,
9、对于这些与图像有关的应用(尤其是基于Internet或者其他广域网络的应用)而言,具有非常重要的意义。大多数有损图像压缩过程也存在着无损压缩环节,无损压缩技术也可以在这些环节中得到直接的应用。广泛的应用前景使图像无损压缩技术近年来在国内外已经成为一大研究热点。1.2 图像的无损压缩的发展现状图像压缩编码的理论和实验研究至今已有 40多年的历史,许多压缩编码技术从理论到实现都进行了深入的研究。以下从压缩原理、发展现状和国际标准三个方面论述了现阶段图像无损压缩的发展状况。1.2.1 压缩原理图像数据压缩的可能性是因为像素间、行、列或帧之间存在较强的相关性。从信息论的观点来讲就是要去除图像数据中的冗
10、余信息, 保留有效信息, 从而减少了描述图像的数据量, 又保证了图像的无失真, 从而实现图像的无损压缩。根据信息论中的信源编码理论一般情况下, 压缩效率往往用下式表示: (1)式中, H为信源熵, R为平均码字长度, 因此可以设计编码方法, 使图像数据的R尽可能地接近或等于熵值H, 从而实现最佳编码。比如常用的Huffman编码, 它根据图像灰度级所出现的概率大小对其赋予不同长度的码字, 对概率大的灰度级采用短码字, 概率小的灰度级采用长码字, 这样编码的结果可使最终的平均码字长度最短。由于该编码方法是以趋近信息源的熵值来进行编码的, 所以常称为熵编码。可以看出熵编码方法建立在图像的统计特性基
11、础上,对于概率分布不同的信源, 其熵编码的效率也不同, 概率分布集中时压缩效率较高, 反之则较低。此外,同样基于图像统计特性的无损编码方法还有游程长编码、算术编码、Lempel- Ziv-Welch方法等。比较而言, 游程长编码对存在大片等灰度区域或灰度值变化较小的图像来说,它的压缩效率较高。Huffman编码方法大多用于对统计直方图呈峰值分布的差值图像进行编码,而在信源模型概率分布未知的情况下,算术编码的压缩性能略高于Huffman编码。由于对相关性较强的原始图像直接进行熵编码, 效率很低。为了提高无损压缩的编码效率,应先对图像数据进行一定程度的解相关, 使转换后的数据有益于提高后续熵编码的
12、效率。将编码过程分为如图 1 所示的两个步骤:熵编码解相关转换图像数据 压缩数据图1 编码过程示意图(1) 图像转换: 采用一定的模型(预测模型、多分辨率模型等)对图像数据进行解相关。(2) 熵编码: 根据转换后图像数据的特点, 相应选择合适的熵编码方法, 对其进行无损压缩。而各种压缩方法的主要不同之处主要体现在第一步骤,看采取什么样的方法对原始图像进行解相关, 第二步的熵编码方法大多从Huffman编码、游程长编码、算术编码和Lemp- Ziv方法中进行选择。值得指出的是, 所有的有损压缩方法都可以转变成为无损压缩方法, 只要将有损压缩的重建图像和原始图像求差值, 将所得的差值图像进行熵编码
13、后,再追加到码流中去, 可以得到相对于原始图像毫无失真的恢复图像。1.2.2 发展现状从上节编码原理的论述可知, 无损压缩算法已从单纯的熵编码发展成为先基于一定的模型解相关后再进行熵编码。而各种压缩算法的主要区别在于解相关所采用的模型不同。其中采用预测模型的有DPCM方法及一些改进的预测编码方法;采用多分辨率模型的有分层内插法、差值金字塔法等;而DCT法、Walsh-Hadamard变换法和小波分解方法等是基于变换模型的;另外,还有基于自适应倍增回归模型的方法。1.2.3国际标准针对静止图像的无损压缩,国际组织ITU-T(原CCITT) 和ISO/IEC 于1992年联合制定了无损压缩的国际标
14、准, 将 DPCM、Huffman和算术编码推荐为无损压缩编码算法的标准, 如表 1 所示。对于二值图像标准规定的主要方法有MH(Modified huffman)方法、MR(Modified relative element address designate)方法、MMR(Modified MR)和JBIG (Joint bilevel image experts group)方法。对多灰度级图像主要有JBIG方法和 JPEG方法,无损压缩的JPEG方法不同于有损压缩JPEG标准的DCT变换,无损压缩采用三维预测模型,熵编码方法从Huffman和算术编码中选择。表1 标准算法的主要特点算法
15、名称(缩写)ITU-T标准名ISO/IEC标准名模型编码器差错检测MHMRMMRJPEGJBIGT.4T.4T.6T.81T.8210918-111544静态,1D静态,2D静态,2D可选,3D自适应,3D霍夫曼霍夫曼霍夫曼霍夫曼/算术编码算术编码是是可选可选可选然而, 相对于实际应用的要求来说, 该标准所提供的算法压缩效率不足, 而且无法实现图像的逐级式传输技术, 所以在加紧无损压缩新算法研究的基础上,无损压缩国际标准需要纳入新的方法来提高其性能。针对于此, JBIG/JPEG委员会于1994年通过了新的工作项目提案, 命名为“新一代静止图像(连续色调)无损压缩算法”,并广泛征集提议, 希望
16、纳入新的更高效的压缩算法。目前, 新的静态图像无损压缩标准JPEG-LS已经进入了委员会草案阶段;而二值图像的JBIG-2(ISO/IEC 14492)标准也将提供更高效、更灵活的功能。同时值得指出的是, 为了满足Internet 、数字摄影、移动通信以及电子商务等应用的要求, ISO/IEC JTC1 /SC29下的第一工作组(WG1)正着力于制定下一代的静止图像编码标准JPEG 2000 , 它旨在提高标准化的图像编码系统, 以满足下一世纪的应用, 是对现存 JPEG标准的补充。它将为具有不同特征(自然图像、医学图像、遥感图像、文本及图形等) 、不同类型的静态图像(二值、灰度、彩色、多组元
17、) 创建一个新的编码系统, 允许不同的图像模型更好的存在于一个统一的系统中, 该标准将具有开放的体系结构, 能够提供至少十年的先进的压缩效率。目前来看,JPEG2000中的主要技术集中在预测和小波方面,相信随着它的标准化进程的不断发展, 将会提供更好的结果。第二章 图像的无损压缩思想无损压缩的基本原理是相同的颜色信息只需保存一次。压缩图像的软件首先会确定图像中哪些区域是相同的,哪些是不同的。包括了重复数据的图像(如蓝天)就可以被压缩,只有蓝天的起始点和终结点需要被记录下来。但是蓝色可能还会有不同的深浅,天空有时也可能被树木、山峰或其他的对象掩盖,这些就需要另外记录。从本质上看,无损压缩的方法可
18、以删除一些重复数据,大大减少要在磁盘上保存的图像尺寸。但是,无损压缩的方法并不能减少图像的内存占用量,这是因为,当从磁盘上读取图像时,软件又会把丢失的像素用适当的颜色信息填充进来。如果要减少图像占用内存的容量,就必须使用有损压缩方法。 无损压缩方法的优点是能够比较好地保存图像的质量,但是相对来说,这种方法的压缩率比较低。但是,如果需要把图像用高分辨率的打印机打印出来,最好还是使用无损压缩,而且几乎所有的图像文件都采用各自简化的格式名作为文件扩展名。从扩展名就可知道这幅图像是按什么格式存储的,应该用什么样的软件去读/写等等。无损压缩的目标是在不丢失信息的前提下,对给定的图像用尽可能少的数据来表示
19、。预测编码方法一直是图像无损压缩的基本理论框架,迄今为止提出对各种图像无损压缩算法都是基于这种思想。这种思想将图像的压缩过程分为“解相关”和“编码”两个阶段。(1) 解相关:压缩算法在这一阶段利用预测技术尽量消除图像在空间的冗余信息。预测是利用相邻像素的值并根据一定的预测模型计算当前像素的预测值,然后进一步计算预测误差,从而将原始图像转化为误差图像并将后者作为下一阶段的输入信息。预测模型本身包括两个组成部分:一部分是预测邻域。制作预测过程中使用哪几个已经编码的临近像素来计算当前像素的预测值;另一部分是预测函数。只预测邻域与当前像素预测值的映射关系。理想的预测模型将使像素的预测误差全部为零。(2
20、) 编码:对预测残留误差通过编码进行表达和进一步压缩。如果预测误差在输入编码器之前没有进行量化,则整个压缩过程将是无损的、完全可逆的,否则由于量化误差的引入,将无法从编码结果完全恢复原始图像,从而该压缩过程是有损的、不可逆的。第三章 图像无损压缩中的若干重要问题3.1 预测误差的模型化如果误差图像可以被视为IID图像(Independent and Identically Distributed Image),则任何熵编码方法均可以有效地对预测误差进行压缩。但实际上,即使运用最复杂的预测方法对图像进行解相关,所得到的误差图像中仍然具有某些基本结构。因此,为了进一步消除误差图像中的结构相关性,需
21、要构造误差模型。对信息源进行熵编码时,需要利用信元符号的概率分布。误差模型化的核心思想,就是统计像素值的概率分布时,不是统计它的绝对概率分布,而是统计像素值在特定上下文中的条件概率分布。其中,上下文是对预测邻域的抽象,在实际算法中,可以就是预测邻域本身,也可以根据预测邻域信息,按某种映射机制来形成。3.2 上下文稀少问题当预测邻域包含的像素较多,或者和表示一个像素所需的比特(bit)数较多时,将会导致上下文的取值合数非常大,图像中的像素(统计样本)数目相对这一组合数过小,从而使像素值分布的条件概率或者难以计算,或者计算的结果不够准确,出现上下文稀少问题。解决本文替代方法是通过某种映射机制,是用
22、较少的比特(短码)来描述上下文。这一过程常被称为“构造上下文模型”。3.3 预测邻域的规模预测邻域中所包含的像素个数并没有一个公认的最佳值。但像素过多,不但会增加预测模型的复杂程度,增加算法对时间和空间开销,且像素过多更容易导致“上下文稀少”问题。实验结果表明,在预测邻域的规模较小时,像素个数越多,预测结果越准确,但当选取的像素个数超过1214个之后,预测结果反而会随像素个数的增加而变坏,这表明像素的取值与距离较远的像素之间没有明显的关系。实际的预测模型中,选取的像素个数通常在38个之间。3.4 图像扫描顺序为了实现镜像的解码操作,预测模型只能选取已经编码的像素作为预测邻域。当前图像的预测压缩
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 毕业设计 论文 图像 无损 压缩
链接地址:https://www.31ppt.com/p-3978226.html