视频数据压缩范文

2024-07-09

视频数据压缩范文(精选7篇)

视频数据压缩 第1篇

随着信息技术的发展, 多媒体数据的应用越来越普及。多媒体是计算机技术和视频、音频及通信等技术集成的产物。多媒体信息经数字化处理后的数据量非常大。这样, 如何在多媒体系统中有效地保存和传送数据就成为多媒体系统面临的一个最基本的问题。现在很多的应用场合都涉及到音视频数据的存储及传输问题, 如数字电视、远程数字音视频的监控等等。尽量减少音视频数据占用的存储空间、节约网络传输带宽也就成了这些系统的最大难题之一。因此, 如何将这么庞大的视频数据和音频数据进行有效压缩并以适当格式存储就成了一个非常重要的问题。

本文, 就是在开源编码程序Mencoder的基础上, 对视频数据的压缩和格式转换进行了研究, 提出了一种系统实现的方案。

1. Mencoder简介

MEncoder (MPlayer的编码器) 是一个基于Linux的开源影片编码器, 是一个使用C语言开发的高效的视频压缩和格式转换系统。MEncoder是基于命令行的, 支持的格式也非常多 (Mpeg、avi、rm、rmvb、mkv、DAT、DVD等等) , 它可以针对CPU的结构优化编译, 在CPU家族的不同成员上运行的二进制文件, 不同CPU有相应的程序, 能充分利用处理器性能。MEncoder功能相当强大, 其语法也比较复杂。其最基本的用法是:

mencoder[options]inputfi le[fi le|URL|-][-o outputfi le]

其中options选项相当复杂, 下面列出了部分选项:

在下边的音视频数据压缩实现方案中, 就是采用MEncoder后台处理的方式进行视频数据处理的。

2. 系统视频处理拓扑结构

视频处理系统的拓扑结构如下图1所示。

系统采用多台服务器运行MyEncoder转换程序。MyEncoder通过对MEncoder源代码封装, 能够自动从SQL Server数据库读取待处理记录。MyEncoder处理的输入数据和输出数据都位于媒体服务器上。本模块的核心功能是视频处理参数输入 (CMAVI) 模块, 本模块把设置好的各项MyEncoder参数输入到数据库中, MyEncoder会根据设置的参数进行处理。

3. MyEncoder视频处理程序

MyEncoder是建立在MEncoder基础上, 主要增加了自动查询数据库来获取待处理记录的功能和监控实时处理信息的功能。

3.1 查询待处理记录

每隔一定的时间从数据库获取待处理记录, 其SQL伪代码为:

3.2 监控实时处理信息

在缺省情况下, MEncoder的处理信息是在命令行输出的, MyEncoder通过管道把输出信息重定向, 把这些信息存放到数据库中。为了把处理信息输出到管道中, 需要建一个管道, 即:

3.3 视频处理参数输入 (CMAVI)

视频处理参数输入 (CMAVI) 是本模块的核心, 把主要的Mencoder参数通过GUI界面来组织, 用户可以比较简洁地选取理想的参数。CMAVI是通过BCGPro界面库实现的。在CMAVI的主界面上可监控各个视频的转化信息。在主界面上可以切换到视频设置和音频设置等输入界面。

视频设置主要代码如下:

音频参数的设置界面和视频参数的设置界面相类似, 只不过参数变了而已, 本文中, 对音频参数的设置代码不再做详细介绍。通过CMAVI对系统采集数据进行压缩和转换, 可以更方便地进行存储和检索, 为整个系统的顺利运行打好坚实的基础。

4. 结束语

经过实践证明, 此视频数据压缩方案运行效果良好, 能够达到预期目的, 减少了视频数据的存储空间, 也方便了视频数据的网络传输, 能更有效地利用网络带宽。此方法也适用于视频监控或者传输等应用的前期开发。

参考文献

[1]http://www.mplayerhq.hu

视频数据压缩 第2篇

以网络为依托,以数字视频的压缩、存储、播放为核心的视频监控技术的应用越来越广泛。一般而言,数字视频信号的信息量大,传输时所需的网络带宽相对较宽[1]。为了在较窄的带宽上用最少的数据获得最佳的图像质量,数字视频信号在传输前通常要先进行压缩编码,而后才在网络上进行传输。在视频压缩算法中,为了减少编码的复杂性,使得视频编码的操作易于执行,通常将一帧图像分成固定大小的块,然后对块进行压缩编码处理。但是一般视频采集芯片采集的原始视频数据格式与视频压缩编码算法的要求不一致,例如图像的大小、YUV信号比和存储格式等[2],因此在进行压缩前要对采集到的视频数据进行预处理。

本文设计了一种用于远程监控的实时视频数据采集系统,系统中由CCD摄像头采集到模拟视频信号,通过视频解码芯片进行视频模数转换,采用FPGA(可编程逻辑阵列)芯片对其预处理,将其转换成视频压缩系统所需要的数据格式,暂存于SRAM中,以备后续的视频调用;能够应用于大容量、高数据吞吐率的数字视频处理系统中[3]。

1 系统总体设计与实现

本设计以FPGA为核心部件,与视频解码芯片、SRAM等外围器件一起构成整个视频数据处理系统。采用Altera公司的Cyclone II系列EP2C8Q208C8N芯片作为系统核心控制部件;视频解码芯片选用Philips公司的SAA7113H作为视频数据的模数转换器件;SRAM采用IS61LV25616作为片外存储器。系统的结构如图1所示,主要包括视频解码配置单元、数据采集及预处理单元、帧存控制单元和时钟控制单元。

1.1 视频解码配置单元

视频解码芯片SAA7113H接收CCD摄像头输出的模拟视频信号,将其转换成标准的VPO数字信号。SAA7113H上电后,必须由控制芯片通过IIC总线对其内部的寄存器进行初始化设置,才能正常工作。视频编码配置单元包含IIC总线控制IP核,将存放于只读ROM的SAA7113H的配置数据按照IIC总线的数据传输规范对SAA7113H进行正确的设置。视频编码配置单元的时钟信号是由SAA7113H提供的像素时钟经过时钟控制单元分频得到,数据速率在100~400kbps。

视频编码配置单元的内部结构如图2所示,由IIC控制单元iic_all、配置数据存储器iic_rom和读地址发生器div448构成。IIC控制单元iic_all是核心控制单元,采用状态机设计,在start信号有效后使SCL高电平时拉低SDA数据线,同时控制地址发生器div448产生读地址信号送入配置数据存储器i i c_r o m;i i c_r o m采用参数可设置模块LPM_ROM,定制为数据宽度为1的只读ROM,每个存储单元预存SAA7113H内部寄存器的控制字;在时钟使能端clken有效时按位串行写入SDA数据线。IIC控制单元在start信号有效后的第八个时钟上升沿获取到SAA7113H的低电平应答信号后继续发送数据给SAA7113H,否则将重新回到起始状态等待。

视频编码配置单元完成对SAA7113H的配置后,SAA7113H输出数字视频信号vpo[7..0]和相应的同步信号:行有效信号rts0、奇偶场标识信号rts1等。其中rts0高电平表示有效像素行,低电平表示消隐行;rts1为奇偶场标识信号,高电平表示奇场,低电平表示偶场。

1.2 数据采集及预处理单元

数据采集与预处理单元的内部结构图如图3所示,由数据采集单元caiji、数据预处理单元yuchuli和双口RAM器件lpm_ram_dp1组成。其工作过程为:数据采集单元caiji将SAA7113H输出的一行视频信号中的有效数据提取出来,产生行状态信号line_state;数据预处理单元yuchuli在行状态信号有效时完成行内视频数据的格式转换,产生双口RAM的写地址,双口RAM按地址暂存一行有效视频数据。

1.2.1 数据采集单元caiji

SAA7113H输出PAL制式的ITU656标准YUV(4:2:2)格式数据[3],其中Y表示亮度信号,而UV表示色差信号,输出像素时钟为27MHz,帧率25帧/秒,每帧图像分为奇偶两场,每帧像素为864×625,其中有效数据为720×576,系统所需要的有效像素为640×480。SAA7113H输出的一行视频数据格式如图4所示,每行有1728个字节,其中有效数据1440字节,对应720个有效像素,可以看成每一个像素数据由两个连续的字节表示,每个像素有自己的亮度数据Y,每两个相邻的像素共用一组色差数据UV。数据采集单元的任务就是将SAA7113H输出的一行数据中截取其中640像素的有效数据(共1280字节)送入数据预处理单元。

数据采集单元的端口为:场有效信号rts0,数据输入端vpo_in[7..0]和系统时钟sys_clock,输出端口为:行状态信号line_state、数据输出端vpo_out[7..0]和有效数据计数输出tempp[10..0]。数据采集单元根据图4中视频数据流的时间参考代码SAV来获得有效数据的起始时刻。在一帧完整的图像数据中,第一场有效数据阶段的SAV为“1000XXXX”,而消隐阶段的时间参考代码中的SAV为“1010XXXX”[3]。数据采集单元判断场有效信号rts0为1时,通过分析数据流中的“80 10 FF 00 00 SAV”定时参考代码,置状态信号line_state为1,标志一行有效数据的开始,同时启动模为1440的计数器tempp,计数时从第40个时钟到第1320个时钟段截取了行中1280个字节的有效数据,计满后置line_state为0,结束一行有效数据的采集。

1.2.2 数据预处理单元yuchuli

数据采集单元采集到的640×576分辨率的图像,而系统中需要640×480分辨率的图像,有上下各48行的数据需要滤除;同时由于采集到的视频信号的数据格式仍为YUV交替的格式,而非压缩编码模块所需要的YUV分离的格式,因此数据预处理单元的任务就是滤除无用的行,将采集单元输出的一行有效数据进行格式转换。数据预处理单元相当于一个数据交织器,将数据的存储地址按照一定的规则生成,存储后的数据就按照压缩算法需要的YUV分离的格式排列,如图5所示。

数据预处理单元的输入端口有:系统时钟sys_clk、奇偶场信号rts1、有效数据计数值tempp和行状态信号line_state;输出端口是双口RAM的写地址ram_add[10..0]。根据行状态信号line_state的上升沿的计数值在范围{48,528}时,输出双口RAM的写地址,这样就可以将有效数据行存入,而将无效数据行滤除。设计中根据有效数据计数值tempp的最后两位来判断对应YUV分量的双口RAM的写地址:由于Y分量是每2个时钟出现一次,则每当计数值的最末位为“0”时,就读出Y数据,产生相应的写地址从0至639循环;类似地,U分量和U分量是每4个时钟出现一次,则计数值的最末位为“01”时,读出U数据,产生相应的写地址从640至959循环;而计数值的最末位为“11”时,读出V数据,产生相应的写地址从960至1279循环;这样每当采集完一行的视频数据时,就将按照YUV分离的形式暂存于双口RAM中。由于数据预处理后信号的YUV比例变为4:1:1,则需要将偶场的UV分量丢弃,当rts1=0时,只读出Y分量,且只分配Y分量的写地址。

1.2.3 双口RAM器件lpm_ram_dp1

双口RAM器件利用FPGA内部的参数可设置模块LPM_RAM_DP定制而成,用来暂存一行的有效视频数据。由于SAA7113H输出是8位的VPO数据,而片外SRAM具有16根数据线,作为连接于两者之间的数据接口,双口RAM应该有两套独立的数据端口和时钟端口,可以同时进行读写操作。在软件QUARTUSⅡ上定制LPM_RAM_DP的参数为:写数据位宽=8;写地址线宽=11;读数据位宽=16,读地址线宽=10;地址输入由时钟的上升沿锁入。双口RAM的容量为2K字节,写时钟采用系统像素时钟,读时钟采用由帧存控制单元产生的像素时钟的二分频信号rdclk。其工作过程为:当行状态信号line_state有效时将640像素的YUV分量写入双口RAM中;在写入数据8个系统时钟后,帧存控制单元发出读请求时,从双口RAM中读出双字节数据,从而实现跨时钟域的数据缓冲和数据传递功能。

1.3 帧存控制单元

经过预处理的视频数据需要暂存在片外SRAM中等待后续的编码压缩模块调用,同时系统中为了实现图像的实时连续处理,采用2片帧存储器交替工作。根据系统要求,采集压缩的图像是4:1:1格式,则一帧图像的大小为640×480×1.5=460800bit,因此选用容量为4Mbit的SRAM器件IS61LV25616。视频数据在SRAM中的存储形式根据目前普遍采用的基于块匹配的视频处理算法,一般以3D空间的8×8块为单位,其存储形式如图6所示。

帧存控制单元是FPGA芯片与外设SRAM的接口,其任务就是产生片上双口RAM的读地址和外设SRAM的写地址,将视频数据从双口RAM中顺序读出再按图6的存储格式写入SRAM中,同时将隔行扫描的数据经调整后在SRAM中逐行存储。帧存控制单元的工作流程图如图7所示,主要是对双口RAM的读操作、SRAM的写操作和SRAM的乒乓控制。

1.3.1 双口RAM的读操作

双口RAM的读操作由模为640的加法计数器cnt640控制,为了保证数据不读空,在双口RAM写使能信号有效后的第8个系统时钟,Y40和Y41两个字节的数据稳定了才开始计数,cnt640的计数值为双字节Y分量的读地址。

1.3.2 SRAM的写操作

IS61LV25616具有18根地址线,取其中9根为行向地址线,则每行存储320个双字节的Y分量和160个双字节U分量(或V分量);9根为列向地址线,可存储480行的视频数据;剩余的存储空间空闲。

帧存控制单元对SRAM的写操作主要是确定YUV分量的写地址。从图5和图6中可以看出YUV分量在SRAM中的存储地址与双口RAM中的存储地址之间有确定的映射关系。设计中行向地址仍由计数器cnt640产生,列向地址由计数器cnt480产生。Y分量写入的行向地址就是双口RAM的读地址除以2,其列向地址是在rts1=1时(即奇场)从000H按时钟加2递增至1DEH,在rts1=0时(偶场)从001H按时钟加2递增至1DFH,这样就能将隔行扫描的Y分量进行逐行的连续存储。类似地可以计算出UV分量的行列地址。

1.3.3 SRAM的乒乓控制

系统中采用了2片SRAM,以乒乓方式工作,一片用于存储当前转换后的图像数据,另一片由读出进行压缩处理[4]。在当前图像帧编码完成并且采集完下一帧图像后,帧存控制单元输出互补读信号wea或web,控制2片SRAM切换工作,从而实现图像的实时连续处理。

2 系统仿真波形及性能分析

2.1 仿真波形

SRAM写入第一行数据的仿真波形如图8所示,图中表示rts1=1(奇场)时,在行有效信号有效后,模为1440的行计数器tempp开始计数;在计数值tempp为40时应该提取到有效数据流中A8 A9 AA AB AC AD AE……计数值为48时,视频数据按照系统时钟的四分频信号开始将双字节的Y分量数据写入第二片SRAM(web有效),依次是A9 AB、ADAF、B1B3……。

2.2 系统性能估算

为了保证系统的实时性,一行有效视频数据的存储必须在下一行数据到来之前完成。本系统中,存储一行有效视频数据需要1280个系统时钟,但是由于Y、UV分量数据需要经过格式调整,而且写入双口RAM的数据需稳定后才能读出,这些因素都导致了存储有效视频数据要多开销几个时钟。从仿真波形中可以得出,存储一行有效数据一共需要1288个系统时钟周期。SRAM的最高时钟频率可以达到125MHz,则存储一行视频数据所需的时间T1=1288/125=10.304ns。SAA7113H输出的一行视频数据占1728个字节,有效数据1280个字节,消隐期和无效数据占用448字节时间,输出的像素时钟为27MHz,那么消隐期和无效数据所占的时间为T2=448/27=16.592ns。由于在行消隐期和无效数据所花费的时间T2大于存储一行视频数据所需的时间T1,因此完全可以在行消隐期实现一行视频数据的实时存储,满足实时数据处理的要求。

3 结束语

FPGA在现代电子系统中的应用越来越广泛,其强大而灵活的逻辑控制功能和内部先进的快速通道互连,使其以超小的端端延时而在数据处理方面处于优势之选[2]。本设计EP2C8Q208C8N为核心,在QUARTUSⅡ8.1环境下进行综合验证,共使用了285个LE,程序下载到FPGA芯片进行仿真验证,实现了系统的功能。在此基础上稍加改动即可实现可变分辨率的视频图像采集系统。

摘要:介绍了一种在视频数据压缩系统中采用FPGA实现数据的实时采集和预处理的设计方案。根据视频处理算法的要求,对视频输入数据的存储格式及读写时序进行了优化,解决了原始视频数据格式与压缩算法不兼容的问题,提高了系统的数据传输速率,满足了后续视频处理的需要。

关键词:实时采集,视频压缩,数据格式,可编程逻辑阵列

参考文献

[1]高韬,赵建涛.视频压缩理论及其技术发展.电子技术应用[J].2007,11(33):3-6.

[2]陈朗,王瑞.MPEG-4系统中基于FPGA实现数据采集及预处理[J].微计算机信息,2005,21(9-3):109-111.

[3]肖文才,樊丰,等.视频实时采集系统的FPGA设计[J].中国有线电视,2006,21:2104-2108.

视频压缩标准 第3篇

关键词:视频压缩,标准,编码,MPEG,H.26x

由于数字电视具有失真小、稳定度高、图像和伴音清晰、便于存储和传输等优点, 近年来得到了飞速发展。数字视频处理技术在通信、电子消费、军事、工业控制等领域的广泛应用促进了数字视频编码技术的快速发展, 并催生出一系列的国际标准。近年来, 国际标准化组织ISO、国际电工委员会IEC和国际电信联盟ITU-T相机制定了一系列视频图像编码的国际标准, 有力地促进了视频信息的广泛传播和相关产业的巨大发展。

1 ISO/IEC的标准系列 (MPEG家族)

1.1 MPEG-1

MPEG-1是MPEG的小画面模式, 具有352×240的图像分辨率, 每秒30帧的播放速度, 用CD音质的伴音, 适用于1.5Mbps以下数据传输率的传输与存储系统中应用。VCD采用的就是MPEG-1编码格式, 被用于数字电话网络上的视频传输, 如非对称数字用户线路 (ADSL) 、视频点播 (VOD) 以及教育网络等。

1.2 MPEG-2

MPEG-2是高质量图像的压缩标准, 其图像分辨率为720×480, 60场每秒, 其数据传输率为4-10MBps, 为可变传输速率。MPEG-2兼容MPEG-1标准。DVD和超级VCD采用的是MPEG-2标准, 采用MPEG-2压缩编码的DVD视盘, 给资料保存带来了新的希望。

1.3 MPEG-3

MPEG-3是ISO/IEC最初为HDTV (高清晰电视广播) 制定的编码和压缩标准, 由于MPEG-2的性能已适用于HDTV, MPEG-3标准并未制定, 通常所说的MP3指的是MPEGLayer3, 只是MPEG的一个音频压缩标准。

1.4 MPEG-4

MPEG-4于1998年11月公布, 更加注重多媒体系统的交互性和灵活性, 主要应用于视像电话、视像电子邮件和电子新闻等, 传输速率在4800~64000bps之间, 分辨率为176×144。主要面向娱乐、欣赏方面的市场。其特点是其更适于交互AV服务以及远程监控。

1.5 MPEG-7

MPEG-7力求能够快速且有效地搜索出用户所需的不同类型的多媒体材料, 既可应用于存储, 也可用于流式应用, 还可以在实时或非实时环境下应用, 如数字图书馆、多媒体名录服务、广播媒体选择等。MPEG-7未来将会在教育、新闻、导游信息、娱乐等各方面将发挥巨大的作用。

2 ITU-T的标准系列

2.1 H.261视频编码标准

H.261是ITU-T为在综合业务数字网上开展双向声像业务而制定的, 速率为64kbps的整数倍。H.261只对CIF和QCIF两种图像格式进行处理, 每帧图像分成图像层、宏块组 (GOB) 层宏块 (MB) 层、块 (Block) 层来处理。H.261又称为P*64, 其中P为64kbps的取值范围, 是1到30的可变参数, 它最初是针对在ISDN上实现电信会议应用特别是面对面的可视电话和视频会议而设计的。H.261在实时编码时比MPEG所占用的CPU运算量少得多, 此算法为了优化带宽占用量, 引进了在图像质量与运动幅度之间的平衡折中机制。H.261是最早的运动图像压缩标准, 它详细制定了视频编码的各个部分, 包括运动补偿的帧间预测、DCT变换量化、熵编码, 以及与固定速率的信道相适配的速率控制等部分。

2.2 H.263视频编码标准

H.263是为低码流通信而设计的, 在许多应用中可以认为被用于取代H.261。H.263的编码算法与H.261一样, 是最早用于低码率视频编码的ITU-T标准, 随后出现的第二版 (H.263+) 及H.263++增加了许多选项, 使其具有更广泛的适用性。H.263是ITU-T为低于的窄带通信信道制定的视频编码标准。它是在H.261基础上发展起来的, 其标准输入图像格式可以是S-QCIF、QCIF、CIF、4CIF或者16CIF的彩色4∶2∶0亚取样图像。

2.3 H.263视频压缩标准版本2

H.263标准的版本2非正式地命名为H.263+标准。它在保证原H.263标准核心句法和语义不变的基础上, 增加了若干选项以提高压缩效率或改善某方面的功能。H.263+标准允许更大范围的图像输入格式, 自定义图像的尺寸, 从而拓宽了标准使用的范围, 使之可以处理基于视窗的计算机图像、更高帧频的图像序列及宽屏图像。为适应网络传输, H.263+增加了时间分级、信噪比和空间分级, 对在噪声信道和存在大量包丢失的网络中传送视频信号很有意义。

2.4 H.264视频压缩编码标准

H.264标准的推出, 是视频编码标准的一次重要进步, 它与现有的MPEG-2、MPEG-4SP及H.263相比, 具有明显的优越性, 特别是在编码效率上的提高, 使之能用于许多新的领域。尽管H.264的算法复杂度是现有编码压缩标准的4倍以上, 随着集成电路技术的快速发展, H.264的应用将成为现实。

3 我国的数字音/视频编/解码技术标准AVS

我国制定的数字音/视频编/解码技术标准AVS的基本技术路线是“大胆采用主流技术, 小心规避国外专利”在清楚分析国际标准的发展历程、技术框架、关键技术和利益关系得基础上, 采用当前国际主流技术方案, 大胆采用国际范围内积累的公开编码压缩技术, 用自主技术“绕开”正在处于专利保护期的技术, 加入我国自主创新成果, 制定出性能上超过国际标准, 技术上具有自主权的国家标准。在AVS视频编码标准中, 包括八大技术模块:变换、量化、预测、变长编码、环路滤波器、帧间预测、熵编码器和场编码。其中前5块为不受专利保护的公开技术, 后3块是创新技术。

AVS标准的特点是复杂度低, 兼容性好, 比MPEG22编码效率高2倍, 与H2264编码效率相当。AVS拥有两个参考图像, 最小运动补偿块为8×8, 与MPEG22系统兼容, 电视台现有的基于MPEG22的编辑与传输系统不需要改变, 且关键硬件编解码芯片已实现, 这样编码芯片可以把各种输入音/视频信号编码压缩为AVS码流, 用于数字电视节目播出;解码芯片可以作为数字电视机顶盒或接收机的核心芯片。AVS标准为我国提供了一个互为准入、交叉许可的谈判筹码, 即外商接收机要进入中国, 就必须符合AVS标准。如果在标准互为准入方面能相互制衡, 我国制造业的被动局面就被改观。在标准制衡的情况下, 自主技术将覆盖我国市场, 使我们处于相对有利地位, 以改变国外技术对我们的控制。

参考文献

[1]黎洪松.数字视频处理[M].北京:北京邮电大学出版社, 2006.

[2]赵坚勇.数字电视技术[M].西安:西安电子科技大学出版社, 2005.

[3]聂秀英.视频通信的现状及发展趋势[J].世界电子技术, 2004, 2.

视频数据压缩 第4篇

为了在Internet上有效地、高质量地传输视频流, 需要多种技术的支持, 其中数字视频的压缩编码技术是Internet视频传输中的关键技术之一。只有高效的视频编码才能保证在现实的互联网环境下提供视频服务。因此, 提出好的视频编解码技术是亟待解决的问题。

近来, 相关领域学者提出的压缩感知理论 (CompressiveSensing) [1,2]为图像编解码提供了很好的技术支持。CS采样是一种对数据获取以及估计的统计技术, 主要应用在稀疏性数据的采样压缩领域。CS的过程能够取代传统采样方案, 并利用优化算法对图像进行重构, 降低了采样定理中对采样率的苛刻要求, 同时为图像的编解码方案增加了技术支持。

依据视频帧内、视频帧间的相关性来建立对视频流的压缩解码方案。现有视频编解码方案都是建立在采样定理的前提下对帧进行采样并压缩编码的, 同时, 主要技术难点是对运动估计与补偿技术的研究。另外, 在预处理中没有对帧内 (图像稀疏性) 先验条件进行考虑。现充分考虑到视频帧内、帧间的相关性并结合CS理论对静止图像的处理特性提出了视频编解码方案, 通过实验仿真, 结果显示提出的方案对视频编解码技术具有可行性。

1压缩感知理论

CS理论是近期在信号处理领域中出现的较为新颖的数据压缩处理算法, 它能对稀疏信号进行远低于传统采样率的采样压缩, 并利用优化重构算法在不损失信号特征的前提下对其进行较为精确的重构。以下是对CS理论的简单介绍。

不妨设实值信号x={x[1], …, x[N]}是N个离散的采样值, 并记α为x在Χ域下的稀疏表示系数, 那么

式 (1) α=[α1, …, αN]是由αi=〈x, ψi〉组成的N维权重系数, Χ=[ψ1ψ2…ψN]是N×N基向量组成的矩阵, ψi是矩阵的第i列向量, 也即稀疏基。

如果α有K个非零的分量, 且K远远小于向量长度N, 那么向量x在基Χ下是K稀疏性。信号的稀疏性在传统的变换编码中应用于信号的压缩, 首先获取整个信号, 然后根据α=ΧTx来获得N个变换系数α, 得到的α向量中N-K个系数将被丢弃, 其余的系数被编码, 在CS理论中为信号重构提供了可能。

CS算法的主要思想[3]就是仅通过M=O (Klg (N/K) ) 次测量的方式来解决传统信号采样过程中的冗余信息处理问题, 测量次数M可以远远小于信号的长度N。假设y为长度为M的测量向量, 由y=Υx给出的, 其中Υ是M×N的测量矩阵。那么, 由前面提到的稀疏性表示信息, 可以写出关于α的表达式,

从式 (2) 可以看出, 如果对测量矩阵进行较好的设计, 压缩的信号可以仅通过M次测量就可以不失真地恢复源信号。在实际的应用中, 只要ΥΧ满足受限等距特性或不相干[4]特性就可以得到较好的信号恢复效果。在CS理论中, 可以采用以下LP模型对信号进行优化重构。

众多国外相关研究论文显示, CS具有潜在的应用于实际的压缩编码领域的优点, 并随着单像素相机的问世, 更多学者们看到了研究的价值并潜心于该理论的进一步研究, 将之推广到其他相关领域以降低对传统采样方式的依赖。

2综合感知模型

为了降低信号间相关性特点, 我们对信号集的测量设计模型———综合感知模型。不失一般性, 给定一个稀疏信号集合{xi}n1, 其中每个xi都是N维信号, 对信号集合中相应信号进行叠加得到综合信号X。假定稀疏信号xi在某正交基Χ∈N×N下可以稀疏表示, 利用测量矩阵Υ, 对X进行测量, 其中

对于每个信号xi, 都有对应的测量矩阵Υi, 通过CS理论测量得到综合测量值Y, 如果对信号xi的测量次数为Mi, 那么总的测量次数为M=∑Mi。最后, 利用LP优化重构算法得到的

以下是利用综合感知模型处理的具体流程 (图1) .

根据以上流程的思想, 采用的视频编解码具体步骤为:

1) 对视频帧进行分组, 并记每组中的第一帧为关键帧, 其他帧为非关键帧;

2) 对关键帧进行压缩感知测量以及重构, 利用重构得到的关键帧与对应分组中的非关键帧作残差, 并利用本文设计的综合感知模型对残差帧进行联合稀疏编解码, 对得到的解码数据进行后处理;

3) 通过Matlab运行环境对视频帧的重构精度进行仿真分析, 并与逐帧CS处理的精度进行比较。

3 实验设计与仿真

现介绍基于CS理论的视频图像处理技术, 可避免传统模式下对视频图像的运动估计和运动补偿等技术, 简化了对视频处理的过程, 从而节约了大量的计算时间。

实验采取结构随机矩阵作为测量矩阵、小波基作为稀疏基以及GPSR[5]作为优化重构算法对视频帧进行CS编解码, 处理的视频对像为salesman。实验是建立在Matlab运行环境下实现的。

图2为salesman视频流中的其中一帧, 表示在CS测量过程中取不同的测量次数的图像显示效果, 其中当测量比率 (测量次数与总像素个数的比例) 达到30%、60%时得到的峰值信噪比分别为26.079 4 dB、33.618 5 dB。

由图像显示的结果可知, 对单幅图像进行CS感知时, 只需测量次数达到60%时就可以对源图像进行较为精确的重构了。

实验过程分两个主要部分:一方面对视频帧逐帧进行CS编解码, 另一方面利用提出的视频编解码方案对视频图像进行处理。利用两种方案对给定的视频图像作处理, 并比较和分析相应的效果。对视频图像帧进行分组, 并任意选取某一组作为测量对象。选取第31、32、33帧图像组成的视频组, 其中第31帧为关键帧, 其他两帧为改组的非关键帧。首先, 对这三帧单独运用CS编解码技术, 得到的平均测量次数与峰值信噪比关系曲线为图3。

其次, 采用本文提出的方案, 在CS测量过程中测量矩阵、稀疏基以及优化重构算法与第一种情况相同, 得到的平均测量次数与峰值信噪比的关系为图4,

通过比较平均测量次数与峰值信噪比的关系, 说明了保持信噪比不变, 也就是图像的质量不变的情况下, 本文提出的算法所需要的平均测量次数较前一种方案的少。那么, 编解码过程中所需的测量时间以及存储空间将会大大降低。

上述实验结果显示CS理论对单幅图像处理是有效的, 同时, 利用图像的稀疏性, 对视频帧作CS测量可以提高视频编解码的效果, 使得视频能够实时地进行传输和显示。进一步利用帧间相关性提出了视频编解码方案, 并结合图形曲线表明, 提出的视频编解码方案, 随着测量次数的增加, 得到的视频恢复效果明显高于前种方法。

4 结语

充分考虑到视频图像的帧间、帧内的相关性特点, 设计了综合感知模型对视频图像进行压缩编解码方案, 从另种角度解决传统方案中运动估计与补偿的技术难点, 通过实验仿真论述了提出的模型具有较好的运用效果。提出的模型在视频处理领域中为视频流的实时传输、显示提供了技术支持, 通过研究压缩感知理论的相关算法、视频图像的稀疏特性、优化重构算法将会使视频图像编解码得到更完美的压缩处理效果, 同时也将会大大降低对传统采样过程中硬件设备的要求。

摘要:基于压缩感知理论设计出了针对视频编解码的处理方案。该理论是近来提出的一种新颖的图像编解码算法, 它能够对稀疏性信号进行远低于Nyquist采样率编码。应用该理论对视频图像进行采样以降低视频的采样速率, 依据视频图像的帧内、帧间相关性对视频帧进行建模, 并结合综合感知模型进行压缩感知恢复。实验结果表明, 本文设计的模型具有较好的效果。

关键词:压缩感知理论,相关性,联合稀疏性

参考文献

[1] Donoho D. Compressed sensing. IEEE Trans Info Theory, 2006; 52 (4) :1289—1306

[2] Cands E.Compressive sampling.in International Congress of Mathe-matics, Madrid, 2006

[3] Richard B. Compressive sensing. IEEE Signal Processing Magazine, July 2007

[4] Cands E.The restricted isometry property and its implications forcompressed sensing caltech.Pasadena, CA, 2008

视频数据压缩 第5篇

随着20世纪90年代多媒体技术的迅速普及, 计算机已逐步深入到信息处理的庞大领域, 很多时候需要存储和处理更加生动直观的视频信息。计算机硬件技术的快速发展, 使得普通个人电脑存储和处理视频信息成为可能, 网络技术的发展, 也使得信息共享和实时交流更具有实际意义。

目前的状况是众多的视频标准以及大量不同格式的视频信息交织在一起, 比较混乱, 本文旨在探讨当前常见的视频格式的定义和异同, 以寻求一种适合未来发展需要的理想的视频格式。

2 常见视频格式的定义及内容

需要声明的是, 广义上的视频信息应包含与之同步的音频信息。由于篇幅所限, 以下关于视频的讨论是狭义上的, 即针对视频信息中的图像数据部分展开。

2.1 制定视频标准的目的和意义

视频信息同时承载了图像、声音两方面内容, 任何一个都比传统的数据、文字信息的结构复杂、存储量大, 用计算机处理视频信息归根结底就是进行数字化转换, 将图像信息、声音信息按照一定规则进行优化排列和数字编码, 以达到存储和处理的目的。由于完全依赖计算机硬件的运算及存储能力, 因此不同时期制定的视频格式标准是完全不同的。

2.2 常见视频格式所采用的技术

2.2.1 无声时代的FLC

是Autodesk公司开发的一种视频格式, 仅支持256色, 但支持色彩抖动技术, 因此很多情况下跟真彩视频区别不是很大, 不支持音频信号, 在没有真彩显卡和声卡的DOS时代是最好的也是唯一的选择。目前已基本淘汰。

2.2.2 简单而丰富的AVI

Audio Video Interleave (AVI) 即音频视频交叉存取格式, 1992年初由微软公司推出。在AVI文件中, 运动图像和伴音数据以交织方式存储, 并独立于硬件设备。由于AVI本身的开放性, 获得了众多编码技术研发商的支持, 使得AVI不断被完善, 现在几乎所有运行在PC上的通用视频编辑系统, 都是以支持AVI为主的, AVI的出现宣告了PC上无声片时代的结束。

2.2.3 容量与质量兼顾的MPEG系列编码

和AVI相反, MPEG不是简单的一种文件格式, 而是编码方案。

2.2.3.1 MPEG-1

制定于1991年底, 处理的是标准图像交换格式 (Standard Interchange Format, SIF) 的多媒体流。是针对1.5Mbps以下数据传输率的数字存储媒质运动图像及其伴音编码 (MPEG-1 Audio) 的国际标准, 伴音标准衍生为MP3编码方案。MPEG-1规范了PAL制和NTSC制模式下的流量标准, 提供了相当于家用录像系统 (VHS) 的影音质量, MPEG-1压缩算法, 可以把一部120分钟长的多媒体流压缩到1.2GB左右大小。常见的V C D就是M P E G-1编码创造的杰作。

2.2.3.2 MPEG-2

于1994年发布国际标准草案 (DIS) , 在视频编码算法上基本和MPEG-1相同。它追求的是大流量下的更高质量的运动图像及其伴音效果。MPEG-2的视频质量看齐PAL或NTSC的广播级质量, MPEG-2更多的改进来自音频部分的编码。目前最常见的M P E G-2相关产品就是D V D了, S V C D也是采用的M P E G-2的编码。MPEG-2还有一个更重要的用处, 就是让传统的电视机和电视广播系统往数码的方向发展。

2.2.3.3 MPEG-3

最初为HDTV制定, 由于MPEG-2的快速发展, MPEG-3还未彻底完成便宣告淘汰。

2.2.3.4 MPEG-4

于1998年公布, 和MPEG-2所针对的不同, MPEG-4追求的不是高品质而是高压缩率以及适用于网络的交互能力。如果以VCD画质为标准, MPEG-4可以把120分钟的多媒体流压缩至300M。MPEG-4标准对传输速率要求较低, 利用很窄的带宽, 通过帧重建技术, 压缩和传输数据, 以求以最少的数据获得最佳的图像质量。

2.2.3.5 MJPEG

是为专业级甚至广播级的视频采集与在设备端回放准备的, 所以MJPEG包含了为传统模拟电视优化的隔行扫描的算法, 如果在PC上播放MJPEG编码的文件, 效果会很难看 (如果显卡不支持MJPEG的动态补偿) 。

2.2.4 用于网络的流媒体

2.2.4.1 Real Video

采用的是RealNetworks公司自己开发的Real G2 Codec。Real Media音频部分采用的是Real Audio, 可以接纳很多音频编码方案, 可实现声音在单声道、立体声音乐不同速率下的压缩。

2.2.4.2 Windows Media

采用的是MPEG-4视频压缩技术, 音频编码采用的是微软自行开发的一种编码方案, 目前没有公布技术资料, 在低流量下提供了令人满意的音质和画质。最新的Windows Media Encoding Utility V8.0将流技术推向到一个新的高度, 我们常见的A S F、W M V、W M A就是微软的流媒体文件。

2.2.4.3 MOV格式

从Apple移植而来, 它具有跨平台、存储空间小的技术特点, 采用了有损压缩方式, 画面效果较AVI格式要稍微好一些。

2.3 常见编码与文件格式的对应关系及特点

2.3.1 Audodesk FLC

文件名后缀为FLC或FLI。在编码过程中会使用抖动算法以模拟真彩的效果。这种格式在保存标准256色调色板或者自定义256色调色板时是无损的, 可以清晰到像素, 非常适合保存线框动画, 例如CAD模型演示。

2.3.2 Microsoft RLE

是微软为AVI格式开发的一种编码, 文件名后缀为AVI, 使用了RLE压缩算法, 是无损压缩, 我们常见的tga格式的图像文件就使用了RLE算法。Microsoft RLE在处理相邻像素时没有色染, 可以清晰的表现网格。因此可以出色地表现单色字体和线条。

2.3.3 Microsoft Video1

是由微软提供的一个AVI编码, 支持真彩, 画面质量很不错, Microsoft Video1的压缩效率非常低下, 编码后的文件非常庞大。Microsoft Video1一般被用在保存一些没有渐变的小型视频素材方面。

2.3.4 Indeo video R3.2

由Intel架构实验室开发, 对应的文件名后缀是AVI。Indeo video R3.2最大的特点就是高压缩比, Intel声称压缩比可达8:1而没有明显的质量损失, 解码速度也非常快, 对系统要求不高, 在要表现细线条或大色彩值变化的渐变时表现得非常糟糕, 目前已基本被淘汰。

2.3.5 Indeo video 5.10

也是Intel架构实验室开发的, 它继承了Indeo video R3.2的优点, 对应的文件格式仍然是A V I, 解码速度非常快。在DivX没有普及前, 几乎是最流行的AVI编码。

2.3.6 None

这是一个没有损失的视频编码方案, 对应的文件扩展名为AVI。这种编码, 文件大得惊人。因为是无损的, 保存素材非常合适。

2.3.7 MPEG1

对应的文件扩展名为MPG、MPEG或者DAT。事实上MPEG1可以工作于非PAL制和非NTSC制标准下。它可以自由设置数据流量和画面尺寸, 只是这样非标准的文件无法直接刻录成VCD。

2.3.8 MPEG2

对应的文件扩展名一般为V O B、MPG。MPEG2的设计目标就是提供接近广播级的高品质输出。

2.3.9 DivX

对应的文件扩展名为AVI或Div X, 它由Microsoft mpeg-4v3修改而来, 使用MPEG-4压缩算法。最大的特点就是高压缩比和不错的画质, 对系统要求也不高, 主频300的CPU就基本可以很流畅的播放了。拥有比Indeo video 5.10高太多的压缩效率, 编码质量也远远比Indeo video 5.10好。

2.3.10 PICVideo MJPEG

MJPEG是很多视频卡支持的一种视频编码, 随卡提供了Codec, 安装完成后可以像使用其它编码一样生成AVI文件, 常用于非线性系统。这种编码的设置比较复杂, 可以得到很高的压缩比, 但牺牲了解码速度。

2.3.11 RealNetworks RealVideo

文件名后缀为R A、R A M、R M、RMVB, 由RealNetworks公司开发, 是视频流技术的始创者。它可以在用5 6 K M O D E M拨号上网的条件实现不间断的视频播放, 是牺牲画面质量来换取可连续观看性。由于RealVideo可以拥有非常高的压缩效率, 一张光盘上可以存放好几部电影。Real Video存在颜色还原不准确的问题, 不太适合专业场合, 但出色的压缩效率和支持流式播放的特征, 使得RealVideo在网络和娱乐场合占有不错的市场份额。

2.3.12 Windows Media video

是微软为了和现在的Real Networks的RealVideo竞争而发展出来的一种可以直接在网上观看视频节目的文件压缩格式。由于它使用了MPEG4的压缩算法, 所以压缩率和图像的质量都很不错。我们经常看到的ASF和WMV就是Windows Media video。Windows Media video的编码质量明显好于Real Video。

2.3.13 MOV

由Apple开发和独立使用, 文件名后缀为M O V。使用Q u i c k T i m e播放, QuickTime原本是Apple公司用于Mac计算机上的一种图像视频处理软件。QuickTime提供了动态的基于Indeo压缩法的*.MOV和基于MPEG压缩法的*.MPG视频格式。

3 视频格式的最新发展

综合以上因素考虑, MPEG4似乎是当前最有发展前景的一种视频格式, 唯一能够与之竞争的是Windows Media格式, 但由于微软的技术封锁, Windows Media并没有得到广泛支持, Real Video也比较具有竞争力, 当前互联网上的视频资源几乎8 0%以上都是R e a l V i d e o格式, 但Real Video同样因版权归属等问题, 没有向第三方公开核心内容, 加之RealVideo的压缩编码过程是比较繁琐的, 因此也限制了它的进一步发展。

正是由于M P E G 4良好的开放性和能够在画质与容量上达到良好的平衡, 使得MPEG4在短时间内得到长足发展, 其在视频和音频方面分别派生出了多个子标准, 关于MPEG4视频方面最新的发展成果就是激动人心的H.264/AVC (Advanced Video Coding/AVC) 进阶视频编码。

3.1 H.264/AVC的有关内容

3.1.1 H.

264/AVC相对以前的编码方法, 以MPEG-2为例, 在图像内容预测方面提高编码效率, 改善图像质量的主要特点如下:

可变块大小运动补偿

1/4采样精度运动补偿

运动矢量可跨越图像边界

多参考图像运动补偿

消除参考图像顺序和显示图像顺序的相关性

消除参考图像与图像表示方法的限制

加权预测

改善“跳过”和“直接”运动推测

帧内编码直接空间预测

循环去块效应滤波器

3.1.2 H.

264/AVC除改善预测方法外, 其他改善编码效率的特性如下:

小块变换

分级块变换

短字长变换

完全匹配反变换

基于上下文的熵编码

3.1.3 H.

264/AVC具有强大的纠错功能和各种网络环境操作灵活性, 主要特性如下:

参数集结构

NAL单元语法结构

灵活的像条大小

灵活宏块排序 (F M O)

任意像条排序

冗余图像

数据划分

3.2 H.264/AVC的使用领域

H.264/AVC的高压缩效率, 扩充了现有的应用领域, 至少包含以下领域:

交互视频服务, 通常速率1Mbps以下, 低延迟。主要应用如下:

H.3 2 0交互式视频服务, 利用基于ISDN视频会议的电路交换;

3GPP交互式H.324/M服务;

H.3 2 3交互式视频服务, 基于INTERNET, 利用IP/RTP协议。

娱乐视频应用, 1Mbps~8Mbps码率, 0.5到2秒中等时延。主要应用如下:

有线、卫星、地面、DSL等广播电视;

标清和高清D V D;

通过各种媒体的视频点播。

流媒体服务, 典型5 0 k b p s到1.5Mbps, 2秒以上的时延。有线或无线使用情况有所不同, 主要应用如下:

3GPP流, 利用IP/RTP传输, RTSP作会话设置, 3GPP规范的扩充部分可能仅使用基类;

有线INTERNET流, 利用IP/RTP传输, RTSP作会话设置。

其他服务, 主要是低码率, 以文件传送方式, 不考虑时延, 根据不同应用, 可能用到3类, 主要应用如下:

3GPP多媒体信息服务;

视频邮件。

4 结论

H.264代表了当前业界最先进的视频压缩技术, 且具有以下无可比拟的优越性:

a) 码率低:和MPEG-2等压缩技术相比, 在同等图像质量下, 采用H.264技术压缩后的数据量只有MPEG-2的1/2~1/3。显然, H.264压缩技术的采用将大大节省用户的下载时间和数据流量收费。

b) 图像质量高:H.264能提供连续、流畅的高质量图像。

c) 容错能力强:H.264提供了解决在不稳定网络环境下容易发生的丢包等错误的必要工具。

d) 网络适应性强:H.264提供了网络适应层, 使得H.264的文件能容易地在不同网络上传输。

参考文献

[1]姜楠, 王健.常用多媒体文件格式压缩标准解析[M].北京:电子工业出版社.2005.

[2]毕厚杰.新一代视频压缩编码标准--H.264/AVC[M].北京:人民邮电出版社.2006.

[3]张文俊.数字媒体技术基础[M].上海:上海大学出版社.2007.

浅谈数字视频压缩技术 第6篇

将视频信号变成计算机能够处理的数据的方法是在上世纪70年代后期出现的, 当时FLSAH变换器价格昂贵, 并且只能处理黑白图像, 也跟不上视频帧的实时。80年代末, 随着计算机CPU、总线和磁盘技术的发展, 视频信号数字化得以实现, 1991年将编码、解码和数字化3种功能合一的板卡出现。后来出现了CCIR-601的4∶2∶2取样标准, 在数字化过程中起了重要作用, 它规定了不同电视制式使用统一的取样标准, 即是亮度信号取样频率是色度副载波的4倍, 其中亮度Y取样频率是13.5MHz, R-Y, B-Y都为6.75MHz。数字视频是将传统模拟信号经过抽样、量化和编码成二进制数字信号, 然后进行各种功能的处理、传输、存贮和记录, 也可以用计算机进行处理和控制。

随着计算机技术的不断发展, 视频、音频的数字化已经成为广播电视技术发展的方向, 数字视频的主要挑战在于原始或未压缩的视频需要存储或传输大量数据。例如, 标准清晰度的NTSC视频的数字化一般是每秒30帧速率, 采用4:2:2 Ycr Cb及720×480, 其要求超过165Mbps的数据速率。保存90分钟的视频需要110GB空间, 或者说超过标准DVD-R存储容量的25倍。即使是视频流应用中常用的低分辨率视频 (如:CIF:352×288 4:2:0、30帧/秒) 也需要超过36.5Mbps的数据速率, 这是ADS L或3G无线等宽带网络速度的许多倍。

2 数字视频压缩技术

数据压缩起源于20世纪40年代的信息论, 数字压缩是将模拟信号数字化以后进行压缩, 所谓压缩处理, 就是去掉信号中的一些冗余信息, 甚至丢掉一些不太重要的信息, 减小或明显减小信息量, 从而使数据传输率和占用空间大大减少。其主要目的是通过数据压缩手段将信息数据量以压缩形式进行存储和传输。它现在广泛应用于数字信号传输和非线性编辑中。

根据信息在压缩过程中是否丢失来划分, 分为无损压缩和有损压缩。无损压缩是指在压缩之后还原出来的数据和没压缩前的完全一样, 这样当然是好的, 但是有一个突出问题就是压缩比不能做的太高, 仍然不能解决存储空间的问题, 也就限制了应用。有损压缩是指在压缩过程中会丢掉视频中的一些信息, 解压缩后恢复原来的视频信号, 但丢失的信息不能恢复。作为高质量的视频压缩, 会尽量丢掉一些人眼视觉功能不需要的信息, 或者人眼不敏感的信息, 这样使解压后的恢复的信号与未压缩前的原始信号没有多大差别, 这样即保持了视频信号的高质量, 又保证了压缩比。现在采用的非线性编辑系统大都采用有损压缩方式, 并且压缩程度可以调节, 以适应不同视频信号的质量要求。

目前国外视频无损压缩技术的专利文献主要分布于美国、日本等国家, 中国专利CN03114423.3涉及信息技术领域中的数据无损压缩和解压缩技术。本发明是基于信源的高阶熵, 能较大地提高数据的压缩比是自适应算法, 不需要事先知道各信源的出现频率;是直接根据信源的出现频率建立非前缀编码, 不需要建立二叉树, 适用于所有数字化文件的压缩和解压缩, 也可作为图像、声音等信息有损压缩方法中的熵编码算法, 还可用于各种实时流媒体信息的压缩和解压缩。

3 视频压缩标准

从1980年以来, 国际标准化组织 (ISO) 、国际电信联盟 (ITU) 等组织陆续完成了各种数据压缩与通信的标准和建议, 在运动图像方面有H.261、H.262、H.263、H.264、MPEG-1、MPEG-2、MPEG-4和MPEG-7。

(1) MPEG-1 (1988~1992) , 可以提供最高达1.5Mbps的数字视频, 只支持逐行扫描。

(2) MPEG-2 (1990~1994) , 支持的带宽范围从2Mbps到超过20Mbps, MPEG-2后向兼容MPEG-1, 但增加了对隔行扫描的支持, 并有更大的伸缩性和灵活性。

(3) MPEG-4 (1994~1998) , 支持逐行扫描和隔行扫描, 是基于视频对象的编码标准, 通过对象识别提供了空间的可伸缩性。

(4) MPEG-7 (1996~2000) , 是多媒体内容描述接口, 与前述标准集中在音频/视频内容的编码和表示不同, 它集中在对多媒体内容的描述。

除了上述通用标准外, 还存在很多专用格式, 比较流行的有:C-Cube的M-JPE G、Intel的IVI (tm) (Indeo Video Interactive) 、Apple的Quick Time (tm) 、Microsoft的Medi a Player (tm) 和Real Networks的Real Player (tm) 。

4 数字视频传输

数字视频网络化是未来发展趋势, 数字化是网络化的前提和必要条件, 网络化又是高速信息交换的基础, 同时也是数字化的有益延伸和拓展。随着通讯技术和计算机技术的迅猛发展, 不论是ATM、SDH、Ethernet传输交换技术抑或诸如MPEG I、MPEG II、H.261、Wavelet等压缩技术的成熟和实用化, 实现视频网络数字化传输已完全不是问题。

现在, 国际上基于各种算法的数字视频传输标准已有很多, 但压缩编码会对视频信息带来不同程度的损失, 当压缩比高 (数据传输速率低) 时, 图像失真严重, 容易出现马赛克及块效应现象。在要求高清晰度的场合, 这种失真是不允许的。在非压缩视频传输系统中, 通常先把视频信号经编码、复接、电光变换之后, 再经光纤传输到目的地, 然后经光电转换、分接、解码等处理, 还原成原始的视频信号。尤其是近来交换式高速以太网的出现和IP技术的发展, 使视频流这种不能中断、不能丢失、和对同步比较敏感的特殊数据的网络数字化传输应用完全成为生活中的现实。

目前, 数字视频压缩技术已经广泛应用于视频传输、计算机多媒体和数值存储等方面, 成为21世纪不可缺少的热点技术之一。随着经济的发展、通信技术的日益提高, 应用在政府部门、远程教育、远程医疗以及商用等方面的发展和应用前景是非常广阔的。

参考文献

[1]数据压缩技术分析[J].青海大学学报.自然科学版, 2002, 20 (5) :52~54.

关于视频编码压缩技术的探讨 第7篇

视频编码压缩技术通常选择的压缩倍数在3.5-5倍,在这样的压缩倍数可以达到理想的视频质量。MPEG算法除了可以对单幅视频进行编码,还可以将冗余去掉,提高视频的压缩比。

1 视频编码压缩技术应用的现状

随着电视行业的发展,使视频编码压缩技术得到发展,其原因是由于视频资料内容繁多,这些宝贵的视频资料记录了我国几十年的历史发展进程,但对视频资料的保存方式,一直使用传统的图书管式的保存方式,就是利用不同种类格式的录像带,但随着视频技术数字化的发展,利用录像带保存节目的方式已经不适应当前高科技的发展,无法满足广播电视行业的技术需要,这种保管方式根本无法提供高效的节目制作及节目查询需求,尤其是影视音频节目的数字化时代,视频编码压缩技术已然成为我国广播电视行业的重点发展方向,一种高效率的视频压缩编码技术的国际组织有两个,一个是国际电联(ITU-T),另一个是国际标准化组织(ISO)。目前现行的视频编码压缩标准有两套,一套是MPEG标准,是由MPEG制定的,另一套是I T U-T标准,是由VCEG制定的。其中,MPEG标准有MPEG-1、MPEG-2、(MPEG-3)、MPEG-4、MPEG-7、MPEG-21;ITU-T标准有H.261、H.262、H.263、H.263v2、H.264。这些标准如今已经在视频行业建立起来,经过研究人员的努力已经成熟使用,并且制订了相关的国际标准,如国际上推行的JPEG标准是图片压缩标准,MPGE是视频及声音压缩标准,H.261和H.263是可视通信服务按视频压缩标准。在这些标准中,由于利用了各种压缩编码技术各有不同,在应用中要进行分析比对,从中可选择出最为适合广播电视行业的视频压缩编码技术。

2 视频编码技术的发展

H.261是最早出现的视频编码建议,目的是规范ISDN网上的会议电视和可视电话应用中的视频编码技术。它采用的算法结合了可减少时间冗余的帧间预测和可减少空间冗余的DCT变换的混合编码方法。和ISDN信道相匹配,其输出码率是p×64kbit/s。P取值较小时,只能传清晰度不太高的图像,适合于面对面的电视电话;p取值较大时(如p>6),可以传输清晰度较好的会议电视图像。H.263建议的是低码率图像压缩标准,在技术上是H.261的改进和扩充,支持码率小于64kbit/s的应用。但实质上H.263以及后来的H.263+和H.263++已发展成支持全码率应用的建议,从它支持众多的图像格式这一点就可看出,如Sub-QCIF、QCIF、CIF、4CIF甚至16CIF等格式。

MPEG-1标准的码率为1.2Mbit/s左右,可提供30帧CIF(352×288)质量的图像,是为CD-ROM光盘的视频存储和播放所制定的。MPEG-l标准视频编码部分的基本算法与H.261/H.263相似,也采用运动补偿的帧间预测、二维DCT、VLC游程编码等措施。此外还引入了帧内帧(I)、预测帧(P)、双向预测帧(B)和直流帧(D)等概念,进一步提高了编码效率。在MPEG-1的基础上,MPEG-2标准在提高图像分辨率、兼容数字电视等方面做了一些改进,例如它的运动矢量的精度为半像素;在编码运算中(如运动估计和DCT)区分"帧"和"场";引入了编码的可分级性技术,如空间可分级性、时间可分级性和信噪比可分级性等。近年推出的MPEG-4标准引入了基于视听对象(AVO:Audio-Visual Object)的编码,大大提高了视频通信的交互能力和编码效率。MPEG-4中还采用了一些新的技术,如形状编码、自适应DCT、任意形状视频对象编码等。但是MPEG-4的基本视频编码器还是属于和H.263相似的一类混合编码器。

3 视频图片编码技术的应用

3.1 JPEG编码技术介绍

常见的JPEG图片是利用24位颜色存储的单个光栅图像。JPEG这种格式与平台无关,JPEG图像可以支持最高级别的压缩,但在压缩过程中会有损耗的。通过JPEG压缩方法可以很好地处理那些生活中的视频图片作品。但是,我们常常会看到一些颜色较少、对比级别又很强烈的实心边框的视频图片,或者那种纯色区域大的视频图片,见(图1)。

对于这类的视频图片,如果利用JPEG的压缩方法,就可能损坏了视频图片的质量。对于有些视频图片,即使将压缩比率低到5:1,就会严重的使视频图片的完整性丧失,使观赏者的观感凌乱。产生这个结果的原因是,通过JPEG压缩方案,是可以很好地完成不同色调的压缩,但是这种JPEG压缩方案却不能处理那些具有强烈差异视频图片的亮度区域,也不能处理那些纯色区域,对这些特定视频图片的区域利用JPEG压缩方案,是束手无策的。

3.2 JPEG技术的应用

在计算机处理中,JPEG压缩方案对于特定视频图片的区域具有局限性,但是JPEG仍然可以说是一种广泛适用的压缩视频图片的标准方式。JPEG表示的中文意义是“联合图像专家组”(Joint Photographic Experts Group)。JPEG是英文首字母缩写的习惯表示方法。我们把采用这种压缩格式的文件称为JPEG文件;它的扩展名有:.jpeg、.jfif、.jpg或.jpe不同的区别,其中在计算机主流平台最常见的是.jpg格式。

关于JPEG方案描述的是对于任何一副图像是如何转换成一组数据流,而没有考虑这些字节是存储

在具体的什么介质上。JPEG在一般应用中,是从数码相机或摄像机等设备获得“JPEG文件”,见(图2)。这类文件指的就是JFIF文件,有时是ExifJPEG文件。如今,JPEG/JFIF已经成为互联网上最常见的视频图片存储和传送格式。

3.3 JPEG技术的使用

在JPEG技术中jpg格式是一种视频图片格式,这种视频图片格式是一种比较常见的图画格式,虽然可能接触到一些其他格式的视频图片,但是可以通过以下方法转化成jpg格式。

视频图片处理是利用计算机对拍摄到不理想的图像进行加工处理,以望达到理想的结果。常见的处理方法有图像数字化、图像编码、图像增强、图像复原、图像分割和图像分析等。图像处理一般指数字图像处理。虽然某些处理也可以用光学方法或模拟技术实现,但它们远不及数字图像处理那样灵活和方便,因而数字图像处理成为图像处理的主要方面。对于那些格式不同的视频图片,可以利用JPEG技术进行转换,具体的方法是打开图画,按另存,就可以按照所给出的选择格式选择,只要选择JPG格式,按一下鼠标就完成了任务,这个方法简单,而且适合画质比较好的,要求比较高的图片转换。

4 结语

文中从视频编码压缩技术的发展历程看到了视频资料内容繁多,和对视频资料的保存方式的创新,利用压缩编码技术可以解决这一难道。随着高清电视、3D电视的发展与普及,单路电视节目所占带宽越来越大。为了信号的无失真、高质量传输与存储。在这种背景下,更加高效、先进的编码方式,成为人们研究的重点。视频编码压缩技术的发展给人类开创了新的篇章,它会给人类提供高质量的视频影像,使人类可以享受更加美好的影像视觉。

参考文献

[1]王明伟.AVS中音视频编码压缩技术研究与分析[J].现代电视技术,2006-06-15.

[2]魏利明,陈相.网络视频编码压缩标准发展及展望[J].现代显示,2006-07-05.

上一篇:初中数学自主性学习下一篇:以读为本培养语感