音视频通信范文

2024-07-02

音视频通信范文(精选11篇)

音视频通信 第1篇

关键词:即时通信系统,音视频,处理技术

从目前即时通信系统中的音视频处理技术来看, 该技术的应用有效地解决了音视频处理问题, 并且保证了即时通信系统能够正常工作。按照即时通信系统的工作原理以及信号传输原理, 音视频处理在即时通信系统中需要遵守专门的即时通信协议, 同时视频处理也有固定的框架需要遵守, 我们还应根据音视频通信的需要, 探讨即时通信系统中音视频通信的实现过程, 掌握即时通信系统音视频处理技术的要点。

1 即时通信协议的概念及内容

1.1 即时通信协议的概念

即时通信协议是进行即时通信必须遵循的信息规范, 主要负责完成用户信息传输通道协商, 客户端与服务器通信信令传输控制等任务。

即时通信作为一种新的信息传输方式, 在传输过程中需要遵守相应的通信协议, 只有按照即时通信协议的规定进行信号传输, 才能够保证信号传输通道的及时性和有效性。从目前即时通信协议的概念来看, 即时通信协议是即时通信系统中的一个重要的规范, 也是即时通信系统的通信基础。如果没有即时通信协议作为辅助, 那么即时通信系统在工作过程中将无法达到预期的工作目标。与此同时, 即时通信系统需要在多个信号传输点进行信号传输, 只有具备了完善的通信协议, 才能够在各个信号传输点之间建立起完善的信号传输通道, 为信号传输奠定良好的基础。参考其他的通信系统, 在信号传输之前建立完善的通信协议, 是信号传输系统工作的重要选择。所以, 明确即时通信协议的概念, 并且根据即时通信系统的工作需要建立完善的即时通信协议, 对于提高即时通信系统的工作效率和满足即时通信系统工作要求具有重要意义。

1.2 即时通信协议的内容

XMPP是主流即时通信协议之一, 是基于可扩展标记语言 (Extensible Markup Language, XML) 的协议, 其集成了在XML的高可扩展性, 可以通过发送扩展的信息来处理用户的需求。目前最常用的即时通信协议体系主要是会议初始化协议 (Session Initiation Protocol, SIP) 和可扩展通信和表示协议 (Extensible Messaging and Presence Protocol, XMPP) 协议体系。

从目前即时通信协议的发展来看, 即时通信协议类型较多, 在通信协议的制定和应用过程中, 也存在多种应用方式。但是究其主要类型, 目前即时通信协议主要形成了两种通信协议体系。这两种通信协议体系能够基本满足即时通信系统的工作需要, 并且在信号传输过程中, 能够与其他的信号传输系统进行有效的对接, 避免了通信协议衔接的困难, 使得通信协议衔接能够达到无障碍衔接, 提高通信协议衔接的有效性。从这一点来看, 即时通信协议是即时通信系统工作过程中的重要基础, 即时通信协议体系的建立和完善及其应用对于即时通信系统的工作有着重要的影响。基于当前即时通信系统的工作需求和用户的现实需求, 即时通信协议按照现有的协议体系进行发展, 能够提高即时通信系统的有效性, 并且保证即时通信系统能够得到有效的运用。

2 音视频处理框架

2.1 Gstreamer音视频处理

Gstreamer通过其模块化设计, 更加便于构建流媒体应用程序。它将各个模块封装起来, 以元件的形式提供给用户使用。用户可以利用库中原有的元件进行应用程序的编程。

在即时通信系统中音视频的处理需要按照专门的处理框架来构建相应的处理系统, 其中, 音视频处理框架主要采取了模块化设计的方式, 其中最重要的框架是Gstreamer框架, 将各个音视频处理功能变成了具体的模块, 并且, 将模块封装起来, 在用户使用过程中可以直接调用相应的功能模块, 就能够实现音视频的处理。这种音视频处理框架减轻了用户的选择负担, 能够根据用户的现实需求进行有效的调用, 对于提高音视频处理效果和满足音视频处理需要具有重要意义。与此同时, Gstreamer音视频处理框架, 能够做到根据用户的实际需求进行有针对性的选择, 在具体的音视频处理过程中, 能够与其他的处理程序进行有效的融合, 既提高音视频处理效果, 同时也能够保证音视频的处理达到相应的处理标准。所以, 我们应当掌握Gstreamer音视频处理框架, 并对这一框架有较为深入的了解。

2.2 Farsight视频会议框架

Farsight是以Gstreamer为基础开发的视频会议框架, 它能够提供一套完整的为多媒体流协议编写插件的应用程序接口, 同时还为用户提供应用程序编程接口 (Application Programming Interface, API) 调用这些插件。

在音视频处理框架中, 除了Gstreamer音视频处理框架之外, 在Gstreamer音视频处理框架的基础上, 又发展产生了Farsight视频会议框架, 这种视频会议框架既能够提高音视频处理的效果, 同时又能够满足音视频处理的需要, 对于快速处理音视频和进行音视频电话会议有着重要的推动和促进作用, 这一音视频处理框架在实际的运用过程中得到了多数用户的追捧, 并且取得了积极的应用成效。这一视频会议框架, 由于以Gstreamer音视频处理框架为基础, 在关键功能上对Gstreamer音视频处理框架进行了有效的修补和升级, 同时在整体功能上也有更强的针对性, 为此我们应当加强对Farsight视频会议框架的了解。将Farsight的视频会议框架作为当前音视频处理技术的主要框架来了解, 同时在即时通信系统中有效地应用Farsight视频会议框架, 保证音视频处理能够达到预期目标。

3 即时通信系统中音视频通信的实现

3.1 即时通信系统的开发思路

为了开发的便捷, Pidgin软件的开发者将负责通信部分与图形用户界面部分分开, 分离出来的核心代码构成即时通信客户端开发的核心部分, 被称为Libpurple。这个程序已被Adium与Proteus这些客户端使用。

在即时通信系统音视频通信实现过程中, 首先应当掌握即时通信系统的开发思路。从目前即时通信系统的开发思路来看, 主要的开发思路是将负责通讯部分图形用户界面部分分开, 保证即时通信系统在音视频处理过程中能够有专属代码进行应用。同时还能够根据通信的实际需要, 进行通信协议和源代码的完善, 使得即时通信系统在音视频通信过程中能够有正确的思路作为支撑。从当前即时通信系统中音视频通信框架的构建来看, 这种即时通信系统开发思路, 能够满足音视频通信需要。并且由于将通信部分与图形用户界面部分分开, 使得音视频通信功能得到了有效地加强, 对于提高语音视频通信能力和满足音视频通信需要起到了重要的促进作用。因此我们应当重视即时通信系统开发思路的研究, 并且在即时通信系统中音视频通信的实现过程, 将开发思路作为重要的因素来看待。

3.2 即时通信系统流媒体模式分析

在Libpurple中, 为实现多媒体通信, 开发者将基于Farsight的多媒体处理框架进行继承和封装, 实现即时通信协议, 并提供接口供用户使用。

在即时通信系统音视频通信实践过程中, 流媒体模式成了保证音视频通信能够有效实现的关键模式。通信协议是在原有通信协议的基础上进行的升级和再造, 对于提高通信协议的适用性和做好与其他通信接口的对接有着重要的作用。与此同时, 流媒体模式也是用语音视频通信的信号传输, 对于解决信号传输过程中的传输困难和信号不稳定问题都有着较大的帮助。因此我们应当认识到流媒体模式的优点, 并且在即时通信系统音视频实现过程中, 将流媒体模式作为主要的信号传输模式来看待, 积极利用流媒体模式所形成的新的通信协议, 做好与其他接口的对接。

3.3 即时通信系统音视频通信模式分析

Farsight通过选择不同的连接通道, 将音视频数据流通过发送器进行发送。Libpurple中实现了Jingle协议进行RTP通信的规范, 并提供两种数据通道, RAWUDP和ICE-UDP供用户使用。

在即时通信系统中, 音视频通信模式关系到音视频通信的质量和通信的效果, 这种双通道的音视频通讯模式具有一定的优势, 在实际的运用过程中也取得了积极的效果, 能够解决音视频通信数据拥堵问题, 同时能够根据客户的实际需要进行合理地选择和调整, 在实际应用过程中有较强的优势。按照目前即时通信系统音视频通信的实际需要, 双数据通道的通信模式得到了具体的应用, 在实际的应用过程中也取得了积极的效果, 既满足了用户的实际需求, 同时也提高了音视频通信效率, 对于满足音视频通信需要和解决音视频通信过程中存在的问题具有重要作用。

4 结语

通过本文的分析可知, 在即时通信系统中对音视频进行处理应当掌握具体的音视频处理技术, 结合音视频处理实际, 在即时通信系统中, 要想提高音视频处理效果, 就应当掌握即时通信协议的概念和内容, 并且对音视频处理框架有正确的认识, 同时还应当做好对即时通信系统中音视频通信实现过程的了解, 为即时通信系统音视频处理奠定良好的技术基础, 满足音视频处理的实际需要。

参考文献

[1]黄伟敏.基于XMPP协议的Android即时通信系统设计[J].电子设计工程, 2011 (8) :57-58.

[2]马瑞竹, 吴锦强, 屈静.关于通信系统的应用研究[J].中国新技术新产品, 2011 (2) :51.

[3]孙震强, 董智明.利用即时通信实现人机共享的方案研究[J].移动通信, 2010 (15) :44-46.

[4]苑为, 陶卓彬.即时通信软件点对多音视频交互功能分析与实现[J].电脑编程技巧与维护, 2010 (19) :58-61.

[5]魏明亮.基于RCS的即时通信系统的设计实现与验证[D].北京:北京邮电大学, 2011.

音视频通信 第2篇

4G专网vc3视频指挥调度系统的应用

2016-02 华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

1.1.1.综合视频调度通信系统

综合视频调度通信系统是北京华纬讯电信技术有限公司所研发的一款产品。此产品将全面服务于训练任务,基于任务过程中的相应导调和评估需求,进行系统平台的规划和部署。为保障导调工作的有序和高效性,音视频综合通信平台要具备完备便捷的视音频资源整合能力和指挥调度能力,全面符合训练任务中的业务组织结构体系,充分结合训练流程,让系统平台成为通信训练的重要支撑手段。

具体需求包括以下几点:

1.实现一级中心节点和各二级机动节点之间的分权、分级的可视化指挥调度;

2.实现对演训过程中的各作业席终端显示图像的接入,一级中心节点及各二级机动节点均可根据权限调阅作业席显示信息。

3.实现一级中心节点可对演训所需的各类监控图像资源、作业终端显示图像资源、移动图传资源、指挥图像资源、会议图像资源等进行多级灵活调用和实时输出显示。演训的系统参演终端,可根据权限灵活调用各类信息资源。

4.全面整合现有的监控设备,实现对训练要素目前已建和即将建设的视频监控设备的数字化整合和接入,达到视频资源的共享,统一管理。

5.系统能够充分满足演训的视频通信需要,能够具备多级指挥、强插强拆、上报机制、快呼预案等训练和导调功能。

6.能够对演训过程中所采集调用的各类图像、语音、数据等资源进行集中录像,并根据导调及评估要求进行存储和查询调用。

7.具备机动通信能力,能够通过移动终端实现可视化指挥通信。8.可支持通过标准协议接口,实现与第三方视频系统互通。

2.1 4G专网组网方案

本方案建议采用一体化TD-LTE解决方案,设备采用一体化设计,发射功率20W,频率1447~1467MHz,采用IP化扁平结构,可快速实现与其华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

他IP网络连接,提供高带宽、低时延的数据通信服务。满足视频、语音的实时传输。

2.1.4G TD-LTE技术优势

通信速度更快:峰值速率下行达到 100Mbps,上行50Mbps。

网络频谱更宽:4G通信在3G通信网络的基础上,进行大幅度的改造,使4G网络在通信带宽上比3G带宽高出许多,目前带宽可为20MHz。

抗干扰更强:干扰可以通过优化频点配置、干扰白噪化、功率控制、干扰协调等方式来对抗;

保密性更强:4G采用LTE加密标准ZUC算法,还可以加载客户自定义保密机。

通信更加灵活:4G的诞生,使无线通信不再局限于语音、数传。视频、影像资料的上传下载已成为主流。

兼容性能更平滑:专用4G网络,可与公网相连,接口开放,能与多种网络互联,终端多样化。

频率使用效率更高:4G通讯引入交换层级技术,这种技术能同时涵盖不同类型的通信接口,使频率利用率得到了大大提升。

实现更高质量的多媒体通信:4G通信能满足第三代移动通信尚不能达到的在覆盖范围、通信质量、造价上支持的高速数据和高分辨率多媒体服务的需要,4G通信系统提供的无线多媒体通信服务将包括语音、数据、视频等大量信息。

专网零通信费:专网4G完全区分与公网,不存在任何流量资费等问题。

2.2.4G专网组成

在本方案中,4G无线传输系统由一体式外挂基站、CPE等无线移动通信设备以及连接各基站和一级节点的光纤传输网组成,如下图所示:

一体式外挂基站提供无线广域覆盖;

大功率车载CPE提供二级节点无线视频传输通道,或者提供快速布防前端有线视频接入通道; 华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

3.综合视频调度通信系统方案

3.1.系统主要应用功能

综合视频调度通信系统能够实现以下方面的功能:

1)可视化指挥调度功能:具备技术先进、成熟可靠、性能优越、功能强大、易于管理、易于升级扩充、运行费用较低、高效率的数字指挥调度系统,可以实现一级中心节点对二级机动节点进行群呼、组呼、单呼、强插强拆等可视化指挥调度功能。同时一级中心节点在实时了解现场动态的情况下,可以向二级机动节点发布指挥和调度命令,上下级各个部门、各级领导与下属之间可以实时地进行音、视频信息的双向交流。

2)图像监控功能:充分利用现有的已建的视频监控图像资源,兼容各个视频监控厂商的设备,在4G专网上,方便实现对全网图像的传输、控制、显示。

3)可视化会议功能:可实现一级中心节点对二级机动节点进行远程视频会议和会商,充分利用无线宽带技术,大大提高各个部门的工作效率。华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

4)标准协议互通的功能:系统支持标准化H.323、SIP协议,可以与标准的H.323协议视频会议系统及标准SIP语音/会议系统进行互联,系统之间可以做到视音频资源的沟通互联,使其它单位机构人员快速直观的在第一时间了解前端事态发展,为与会领导作出明确的指示提供第一手的参考。

5)双机热备:系统可设置双平台,设置为主备机,双平台同时连接同一数据库,无须重新设置任何参数,在发生故障时,备机自动替换主机,接管系统。使系统的运行更加稳定,可靠。

6)系统支持分级存储及集中存储多种机制:一方面对于重大事件可在监控中心进行集中存储,可以在发生重大事件时实时存储相关图像,方便调阅。另一方面对于常规监控,可支持分布式进行现场数字存储。

3.2.系统设计方案

综合视频调度通信系统建设,将训练场的多种图像视频资源进行全面整合,系统部署应与组织结构和隶属关系相吻合。

一级中心节点可纵向对二级机动节点进行视频指挥调度。一级中心节点可以同时看到一线现场情况,并与各二级机动节点进行远程音视频双向指挥导调。

综合视频调度通信系统总体架构拓扑图如下图所示: 华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

4.综合视频调度通信系统功能

4.1.1080P60全高清画质 4.2.低带宽高清图传 4.3.可视化调度指挥

借助于可视化指挥调度系统独具的多种级别和权限模式设置,指挥一级中心节点以及指挥中心的领导或各个相关部门领导均可通过指挥调度终端可以向下级工作人员发布指挥和调度命令,实现上下级各个部门、各级领导与下属之间可以实时地进行音、视频信息的双向交流。华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

4.4.视频会议

根据用户的应用需求,一级指挥一级中心节点二级分控中心会议室、各级指挥中心大厅的指挥调度终端、领导会议室的终端设备均根据需要实时召开视频会议,实现交流讨论、业务汇报、技术培训等各种会议,进行多点多方双向音视频交流互动。

4.5.双流图像传送 4.6.综合视频监控 华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

用户能灵活切换现场视频画面、控制云台和摄像头,方便地组合显示一至十六路的视频画面并支持双向语音可视对讲。

4.7.触屏操作便捷,一键即通

4.8.数字录音、录像

用户经授权通过web浏览器可根据终端名称、录像时间、录像地点、录像事件特征,随时查询检索视频文件,远程播放所需视频图像。

4.9.高清解码显示 华纬讯vc3综合视频调度通信系统系统在训练场的建设方案

4.10.会议系统互通 4.11.外设控制

支持远程摄像机、云台控制,云台控制方式可选(连续、步进)。为了节省监控点接入带宽,支持对DVR和视频分割器进行控制,并实现远程的图像浏览切换等操作。

4.12.多种级别权限设置

用户权限管理规定了对其他各终端的权限,分为:指挥权、监视权、上报权、控制权和短信权等。系统进行配置时可以根据实际的隶属关系进行灵活的权限设置。发生争用时,级别不同的级别优先,级别相同的时间优先。

4.13.系统管理配置

5.综合视频调度通信系统特点

5.1.多业务融合的体系结构 5.2.丰富的视频指挥功能

“晨星”闪亮视频通信市场 第3篇

日前,在神州数码晨星视频通信产品发布会上,神州数码商用网络本部总经理李翔表达了以上观点。他认为,云计算的发展为视频会议系统带来云视频会议,这必将引发更加自由、方便、高效的新一轮的视频通信变革。在这一发展契机下,神州数码面向高清视频通信市场,推出了全套自有品牌“晨星”视频通信产品系列,包括高清多点控制单元晨星锐讯SCOPIA Elite MCU 5200/5100和高清终端SCOPIA XT1000系列。

据李翔介绍,神州数码自有品牌“晨星”视频会议产品采用了与RADVISION深度合作的多项业界领先技术,是针对高清视频会议市场打造的一套高端视频通信解决方案。以色列RADVISION公司是全球领先的专业视频提供商,拥有全套基于IP、3G及下一代IMS网络的端到端统一视频通信方案及研发工具。此前,神州数码一直是RADVISION在中国市场的总代,双方的合作经历成为此次进一步合作的基础。

RADVISION中国区总经理李文认为,神州数码与RADVISION的合作将取得双赢的效果。他说,RADVISION自1998年进入中国后,至今已经拥有了较为稳定的客户群和优势行业市场,但对于一些有政策限制的客户群,RADVISION的产品很难覆盖,但借助神州数码的平台和经验,晨星可重点拓展这些行业市场,而RADVISION则会从技术咨询的角度给予支持。神州数码李翔认为,神州数码的技术力量将重点在应用层面上,要想使视频会议系统走向大众化,只有首先本土化。据了解,在软件开发上,RADVISION的软件主要面向硬件和资源管理,而神州数码将面向应用开发更多的软件,这已远高于代理或OEM层面的合作。

音视频通信 第4篇

在一些重特大突发灾害事故的处置现场,尤其是在一些区域性灾害的处置过程中,由于情况特别复杂,需要在抢险救灾现场与后方指挥中心之间建立一个全方位的信息沟通平台,以便后方能在最短的时间内给予最为科学的技术支持和物质支援。而这种全方位的信息沟通仅仅依靠语音和数据通信是不够的,还需要信息量更大的实时图象、图形、数据传输,使指挥中心的指挥员能及时获得现场信息,从而提高决策的准确性和及时性。

在地面,灾害现场与指挥中心的信息传输只能依靠电台和移动电话进行,这些通信方式存在通信死角、易受环境干扰、有距离限制等缺点,而海事卫星BGAN(Broadband Global Area Network)宽带系统和YJ-NET矿山应急救援车载视频通信系统可以实现广范围的双向语音视频通信;在井下,临时铺设的应急救援音视频指挥系统可以实现救援小队、井下指挥基站、井上指挥基站三方的语音视频通信。但是,现在国内还缺乏天地井互联的实时应急救援语音视频通信系统。针对该问题,笔者设计了一种结合井下有线音视频通信系统和地面卫星视频通信系统的矿井应急救援指挥通信装置,从而解决了应急救援指挥中的天地井互联实时通信这一难题。

1 矿井应急救援指挥通信装置的系统模型

矿井应急救援指挥可以采用三级指挥机制。笔者按三级指挥流程和信息传输模型,设计矿井应急救援指挥通信装置,解决应急救援中的信息传输问题。

1.1 系统构成及功能

矿井应急救援指挥通信装置的系统构成包括救援终端、井下指挥基站、井上指挥基站和远程指挥站4个部分,如图1所示。救援终端由语音、图象和多参数传感器组成,实现现场信息的采集、编码、调制功能并将信息传输到通信网络中;井下指挥基站、井上指挥基站和远程指挥站三方可以观测现场的图象、环境数据和互相通话,井下指挥基站和井上指挥基站可以双向视频。远程指挥站可以通过办公局域网、因特网或者卫星视频系统传输信息。

1.2 卫星通信系统的组成

卫星通信系统主要由固定和移动两大部分组成。固定部分包括卫星地面主站(远程指挥中心)、卫星链路系统、卫星远端站(现场抢险指挥部);移动部分主要指卫星通信指挥车,如图2所示。

地面通信设施基于其自身的特点,容易受到火灾、飓风、地震、坍塌等重特大灾害的破坏,无法在处理重大灾害事故时发挥其应有的作用。而卫星通信作为一种新型的空间通信技术,以其通信范围大、抗遮挡能力强、不易受陆地灾害影响、建设速度快等特点,可以很好地解决以上问题。利用卫星通信覆盖范围广、随时随地的特性,即可以保证无线通信不会存在任何盲区。

1.3 两种卫星宽带通信技术比较

BGAN是国际海事卫星组织所主导的宽频全球区域网络系统的第四代卫星通信系统。BGAN 业务可为全球几乎任何地方的用户提供高达492 kbit/s的网络数据传输、移动视频、视频会议、传真、电子邮件、局域网接入功能,并为用户提供短信、语音信箱、来电显示、呼叫转移、呼叫等待、呼叫保持、电话会议、限制用户组、呼叫限制、预付费等多种附加功能。

VSAT(Very Small Aperture Terminal)是指具有甚小口径天线的智能化小型式微型地球站,大量的VSAT与一个主站共同工作,构成卫星通信网。宽带卫星网络是已商用化的卫星数据通信平台,在支持传统通信协议的基础上,已逐步向IP over Satellite网络转化。但卫星网络不同于有线网络,有其自身的特殊性,如卫星通信链路的传播时延较大,特别是对于GEO(Geostationary)地球同步卫星系统,往返传播延迟达540 ms,这是卫星通信系统支持TCP/IP协议需要特殊考虑的一个重要问题。

BGAN与VSAT的技术参数比较如表1所示。

从表1可看出,BGAN海事卫星在保证高带宽的情况下,重量轻、体积小、携带方便、铺设快捷、使用成本更低,更加适合应急救援语音视频通信。

2矿井应急救援指挥通信装置的集成设计

基于卫星通信技术的天地井互连应急救援指挥通信装置可分为地面系统和井下系统2个部分,如图3所示。井下系统由防爆耳机、防爆摄像头、音视频编码器、井下基站组成;井上系统由工业以太网、地面基站、静中通便携式卫星站、卫星站、动中通卫星站和远程卫星中心站组成。井上系统与井下系统之间设置避雷器。

2.1 井下到地面语音视频通信系统

井下到地面语音视频通信系统为煤科总院重庆研究院研制的KTN101矿用救灾指挥装置。该装置由地面指挥部、井下指挥基地、救援小队3个部分组成,是一种主要用于井下应急救援指挥的通信系统。KTN101矿用救灾指挥装置采用H.264视频压缩技术、G.722音频压缩技术、SDSL和TCP/IP组网传输技术,将大量语音、视频、传感器数据采集压缩,编码成SDSL信号,通过双绞线传输到基站解码、解压缩、转换成TCP/IP数据,最后通过工业以太网与地面系统连接。井下指挥端(≤4.5 km)可以观测救援现场视频和环境数据,可以和现场救护队员通话,同时系统可以与工业以太网连接,传输现场数据信息,为救援现场指挥和事故调查提供重要信息。

2.2 地面卫星音视频通信系统

地面卫星音视频通信系统包括便携式卫星站、移动卫星站和远程卫星中心站。

(1) 便携式卫星站。

便携式卫星站采用便携式电源供电,具有即铺即用的特点。在灾害事故现场,地面基站汇接现场数据,并通过便携式卫星站将井下灾害现场的数据传输给移动指挥站或远程卫星中心站。

(2) 移动卫星站。

移动卫星站即通信指挥车,它采用先进的卫星收发装置、图象采集系统、卫星通信系统、通信指挥系统、计算机通信系统、供电系统、大功率广播指挥系统、现代无线通信等技术,在处理紧急突发事件中机动灵活、快速反应,可实现现场与远程指挥中心之间的远程图象监控、语音联络、数据查询功能,为实现事件现场和远程指挥中心提供可靠的通信保障。

(3) 远程卫星中心站。

远程卫星中心站接收移动卫星站或者便携式卫星站的数据,对灾情进行实时指挥,同时对现场指挥员调度指挥决策提供强有力的技术支持,调动国内救援力量实施救援。

3 实验室测试和现场实验

丹麦的Thrane&Thrane设备输入端带BGAN宽带通信设备,提供基于TCP/IP的数据接口,在实验室根据运营商提供标准数据接口来做模拟测试。在野外与YJ-NET矿山应急救援车载视频通信系统进行联机音视频测试。

3.1 实验室测试

如图4所示,用接有BGAN探险者E700的地面局域网来模拟卫星通信子网,近端计算机通过模拟卫星通信子网访问远端的音视频编码器。经过测试,组网方案可行,网络工作稳定,地面基站与模拟卫星站传输能力强(带宽为300 kbit/s),传输速率能够达到传输低码率视频的要求。图5为实验室测试视频抓图。

3.2 现场测试

笔者在贵州某救护大队与YJ-NET矿山应急救援车载视频通信系统进行了互连测试。经过测试,KTN101矿用救灾指挥装置和YJ-NET的主机可以相互双向PING测试,通信组网稳定,1路视频数据(200 kbit/s)能够通过卫星视频网络传输到主机上存储和显示。图6为现场测试视频抓图。

测试结果表明,2种卫星网络均能满足应急救援视频通信的要求。卫星传输易受到气候影响,卫星租用费用较贵,视频占用带宽较大,在实际应用中,在保证可靠语音通信的情况下,可传输一些小数据的图片或低码率视频。

4 结语

本文根据三级指挥机制和应急救援通信的实际需求,提出了天地井三方互联的快速组网的应急救援通信网解决方案。它以现代卫星通信技术为基础,采用现代化计算机、通信、控制和信息处理的先进技术,在救援现场与井下指挥基地、井上指挥基地、移动指挥中心及远程指挥中心之间快速建立通 信连接;系统汇集有线、无线、计算机网络、通信、卫星通信和图象、语音、数据传输于一体,能快速、准确、可靠地实现对灾害事故的指挥和辅助决策,提高矿井应急救援救灾调度现代化的技术水平和管理水平。该方案现场测试良好,功能设计完全,推广应用价值较大。

参考文献

[1]李全国.基于卫星通信技术开发消防通信指挥系统[J].中国信息科技信息,2008(19).

[2]郑万波,吴燕清.新型矿井应急救援指挥通信系统关键技术研究[J].煤炭科学技术,2009(8).

[3]矿山应急救援专家组.矿山救护规程实施手册[M].北京:中国煤炭出版社,2008.

[4]陈振国,杨鸿文,郭文彬.卫星通信系统与技术[M].北京:北京邮电大学出版社,2003.

[5]许焕武,滑现平,范永辉,等.基于卫星IP网络的远程视频传输方案[J].电子工程师,2007(6).

[6]肖强,申瑞民.天地互连视频会议系统视音频传输模块[J].计算机工程,2005(2).

[7]谢智东,常江,周辉.Inmarsat BGAN系统(上)[J].数字通信世界,2007(3).

[8]谢智东,常江,周辉.Inmarsat BGAN系统(下)[J].数字通信世界,2007(4).

[9]梁炎,张尧弼.带VSAT卫星通信平台实现IP组播的应用分析[J].微型电脑应用,2005(3).

音视频通信 第5篇

“这次合作与以往的不同之处在于,它涉及更深的软件和硬件层面,将真正打通底层通信协议和硬件部署。”Radvision中国区总经理李文告诉记者。通过合作,Radvision将为微软统一通信平台与标准视频会议解决方案之间提供先进的连接性,共享视频通信设备之间无缝操作的所有优势,从而充分挖掘统一通信的潜力。Radvision与微软的用户与潜在客户都将充分体验到微软统一通信解决方案的优势,既保护了现有投资,又能享受视频会议以及远程监控、移动视频等最新视频通信方案的优势。据了解,Radvision与微软都将为这次合作投入资源,共同开发、销售联合解决方案。

“统一通信从前几年的概念热炒到今天,经历了不同的发展阶段。我们看到,业界关于统一通信的理念是正确的,但是统一通信蓝图的实现有一个过程,今天的统一通信无论在基础设施还是应用开发与整合上都是不够的。”李文认为。

音视频通信 第6篇

目前国内电视机厂商采用的芯片有Mstar,RTK,MTK,Amlogic,Hisi等,各芯片厂家提供的芯片方案差异非常大,使得软件开发难度较高,且开发效率较低。如何在诸多电视芯片方案上实现音视频通信,实现智能电视和智能手机、平板等智能终端之间音视频通话急需研究和突破。在智能电视上实现音视频通话,向用户提供优质的内容与服务可以吸引用户,有效地利用网络资源,提升产品竞争力,促进技术升级和产业的发展。

1 通信协议

通信协议主要有两种: SIP协议和RTP协议。SIP协议用来进行信令的交互,RTP协议用来传输音视频数据流。只要有一台Android系统的智能电视机和一个普通摄像头,连上网络后,即可安装、使用基于本文解决方案开发的音视频通信软件。

1. 1 SIP协议

会话发起协议( Session Initiation Protocol,SIP)[1]协议是IETF制定的多媒体通信协议,它是一个基于文本的应用层控制协议,独立于底层协议,用于建立、修改和终止IP网上的双方或多方的多媒体会话。SIP协议支持代理、重定向、登记定位用户等功能,支持用户移动,与RTP/RTCP、SDP、RTSP、DNS等协议配合,可支持和应用于语音、视频、数据等多媒体业务。

1. 2 RTP协议

RTP称为Real-time Transport Protocol( 实时传输协议) 。它是IETF提出的一个标准,对应的RFC文档为RFC3550。RTP用来为端到端的实时传输提供时间信息和流同步,但并不保证服务质量。服务质量由RTCP来提供。

主叫端摄像头采集到音视频数据后,先经过编码,然后封装成RTP数据包,经网络发送到被叫端。被叫端接收到主叫端发送来的RTP数据包后,从网卡读取RTP数据包,并进行解包,然后进行解码,再将解码后的数据播放出来,从而完成完整的音视频通话流程。

2 标准化

智能电视机硬件平台繁多,差异比较高。必须在各平台上进行标准化工作,主要包括: 音视频采集、编解码、音频播放和视频渲染。在软件构架的时候,将软件进行层次划分、模块抽象、高内聚低偶合。

首先将协议栈标准化,然后将音视频通信功能模块标准化,并集成到Android系统的智能电视操作系统中,使之成为系统服务。

2. 1 音频数据标准化

G. 729 协议是基于共轭结构代数码激励线性预测的语音压缩编码技术。G. 729 系列主要包括: G. 729 标准协议,G. 729A,G. 729B,G. 729AB。开发过程中选择G. 729A[2]作为音频编码标准。首先,摄像头采集原始PCM音频数据,然后采用G729A作为语音压缩编码,采样率8 k Hz,采样位数16 bit。编码后的音频数据封装为RTP数据包发送到接收端。接收端接收到音频数据后,先拆包,然后采用G. 729A解码音频数据,最后播放音频数据。

2. 2 视频数据标准化

H. 264[3]是由ITU-T视频编码专家组( VCEG) 和ISO / IEC动态图像专家组( MPEG) 联合组成的联合视频组提出的高度压缩数字视频编解码器标准。视频数据编解码流程,如图1 所示。

摄像头采集到的视频数据格式为YUV420P,然后将采集到的数据发送给编码器编码,编出来的H. 264码流经由RTP封包后发送到接收到端。接收端接收到RTP视频数据后进行解码,最终以YUV420P格式输出显示视频画面。

2. 3 硬件编解码标准化

软件工作过程中通过单独的硬件编解码库调用Android系统的Open Max层接口执行视频的编解码,如图2 所示。

首先通过OMXCodec的Create函数创建编解码器,然后创建两个线程,其中的一个线程负责将待编解码数据发送给编解码器,另外一个线程负责将编解码器输出的数据发送给上层接口。

2. 4 音视频通信模块标准化

智能电视功能越来越多,主要包括: 网络服务、多媒体服务、电视服务、人机互动服务等。通过将音视频通信标准化、模块化后,集成到电视机操作系统中,使之成为系统服务模块之一。用户只要购买创维电视即可享受到免费的音视频通信服务。智能电视功能模块化、标准化后,软件架构如图3 所示。

最底层的硬件层主要提供驱动、数据注入等服务;第二层的Sky SDK主要是利用标准化技术,将系统底层服务进行统一封装,提供基础软件接口; 第三层是服务层,主要是智能电视提供的各类服务,可灵活扩展。将音视频通信制定成标准化的功能模块,集成到操作系统中; 最上层是应用层,主要是各类服务和应用界面的展示、操控。

标准化工作完成后,基于本方案开发的软件可快速的在其他操作系统设备上实现,比如IOS系统、Windows系统、Linux系统。从而实现不同智能终端之间音视频通信。

3 音视频通信实现

音视频通信模块主要提供音频通话、视频通话、通信录、通话记录四大功能。通信录除了提供常规的添加好友、删除好友、编辑好友和搜索好友之外,还支持对通信录中的好友进行分组,每个分组可设置不同的组名,便于通信录管理。

开发所用设备为Android系统智能电视一台、摄像头一个。

3. 1 音视频通信模块软件架构

开发过程中,协议栈使用C语言开发,封装成动态库,然后通过JNI封装,供应用层调用、显示。软件架构如图4 所示。

为了保障音视频通信质量,针对音视频数据还需要进行流媒体处理,主要措施包括: 丢包处理、抖动平滑等。

3. 2 丢包处理

在Internet上用分组传送话音质量不够好的一个重要原因是丢包率比较高。尤其在广域网中,这个问题相当突出。特别是实时多媒体业务对于延时的要求相当严格,因此不大可能通过重传来解决丢包的问题。正是出于这个原因,本文选择前向纠错( Forward Error Correction,FEC) 机制用于丢包处理,同时也可以用于关键帧的保护来解决丢包问题。

发送端从媒体数据流中取出若干个数据包,并对它们整个施以异或操作,包括RTP头,然后得到一个包含FEC信息的RTP包。这个包可以被接收端用来恢复任何一个用来产生它的包。发送端需要告诉接收端哪些媒体包被用来产生了一个FEC包,这些信息都包含在荷载信息中。每个FEC包中包含一个24 bit的mask,如果mask的第i个比特为1,序号为N + i的媒体包就参与了这个FEC包的生成。N称作基序号,也在FEC包中传送。通过此方案就可实现FEC纠错方案,恢复丢失的数据包。

3. 3 抖动平滑

该设计通过改良Webrtc中的Jitter Buffer算法实现抖动平滑功能。Jitter Buffer作为抖动缓冲区,它是一个共享的数据区域,接收端用于平滑网络抖动、拥塞造成的数据波动,降低恶劣的网络环境对音频流的影响,使得终端用户感受到一个清晰的,没有失真声音。缓冲是以牺牲一定的网络时延为代价的,时延越大,对抖动的过滤越好。

Jitter Buffer使用到的模块有Frame Buffer,用来维护数据元素列表。Session Info用于包的拼接,根据数据包的的序列号对顺序或非顺序增长的包进行排列。如果是重传包,Session Info会负责将数据包插入到正确的位置上。

4 服务器部署

项目采用客户端/服务器和点对点( C/S + P2P) 相结合的技术架构。点对点( P2P) 方面,实现了IETF标准STUN、TURN和ICE用于处理NAT穿越问题,可以在未知网络拓扑结构中实现设备互连。

当主叫或被叫有一方的NAT无法穿透时,音视频数据必须通过服务器转发。当主叫和被叫用户所处的NAT均可穿透时,采用P2P策略,数据不经服务器转发,减轻服务端压力。服务器端主要由媒体转发服务器和信令服务器构成。

4. 1 媒体转发服务器

媒体转发服务器包括Media Dispatcher和Media Relay两个部分,主要负责音视频数据转发。由于NAT类型复杂,NAT穿越[4]是需要重点解决的问题。当用户所处NAT类型无法穿透时,利用媒体服务器转发音视频数据,保障正常的通信。当主叫或被叫有一方的NAT无法穿透时,音视频数据必须通过服务器转发。

Media Dispatcher负责为呼叫指派一个用于媒体转发的Relay。在简单的情况下,Media Dispatcher只需要为呼叫指派一个Relay,然后客户端的所有媒体数据都通过该Relay来进行转发。但在跨运营商的情况下,为了能够取得较好的通话质量,需要两个Relay,保障通话质量。

Media Relay帮助转发媒体数据。在跨运营商的情况下,Media Relay能够保证双方的通话质量不受运营商的策略影响。目前,创维针对电信、联通、广电3 个运营商都部署了双线的Relay。

4. 2 SIP信令服务器

SIP服务器负责所有SIP消息的处理。系统中有多台SIP服务器同时工作,SIP消息会根据负载情况发送到一台SIP服务器。这些SIP服务器通过缓存设施得到相同的数据,因此所有会话的状态和其他注册相关的信息都会在各台SIP服务器之间共享。SIP消息不需要根据历史信息路由到特定的SIP服务器处理,提高系统的处理能力和可靠性。

基于本方案开发的客户端软件安装用MSTAR、RTK、Hi Si平台的智能电视机进行实际测试。视频通话支持320 × 240、640 × 480、1 280 × 720 三种分辨率,依据网络带宽及设备处理能力进行分辨率切换。网络带宽要求高于4 Mbit /s。智能电视机之间、智能手机与智能电视之间音视频通信延迟在1 s以内,音视频通信流畅、清晰。目前基于本文的解决方案开发的电视机软件已经在创维智能电视机上实现量产,手机、平板端软件可到应用市场下载。

5 总结

基于本方案开发的软件可稳定运行在Android系统的智能电视机上,从而实现智能电视之间的音视频通信。软件还可在其他操作系统的手机、平板等智能终端上,实现音视频通信。音视频通信服务应用到智能电视行业,即丰富了产品形态、提升产品竞争力,又促进了产业技术的进步。

摘要:在研究SIP协议、音视频编解码的基础上,提出了一种基于智能电视机平台的音视频通信解决方案。基于此方案开发的软件可实现Android系统的智能电视机和手机之间进行音视频通信。通过移植实现跨平台开发,完成Android系统和IOS系统的智能设备之间音视频通信。软件安装应用在创维智能电视机上,实践证明该方案高效、可行。

关键词:拥塞控制,网络穿透,编解码,点对点

参考文献

[1]SPARKS R,DONOVAN S,CAMPBELL B.SIP[M].[S.l.]:Oreilly&Associates Inc.,2001.

[2]谢代华.利用DM642的G729A音频压缩研究与实现[J].电子科技大学学报,2008,37(6):86-88.

[3]陈靖,刘京,曹喜信.深入理解视频编解码技术-基于H.264标准及参考模型[M].北京:北京航空航天大学出版社,2012.

音视频通信 第7篇

随着因特网的发展成熟、用户需求的增长以及宏观环境变暖等条件的刺激, 基于网络的音视频通信行业迅速发展起来。本文介绍基于Freescale公司i.MX27硬件平台, 基于SIP (初始会话协议) 协议的网络视传机的设计与实现。

视传机的软硬件技术基础

i.MX27

将视频编解码功能嵌入到多媒体应用处理器中已经成为一个趋势。Freescale DragonBall家族最新成员i.MX27多媒体应用处理器, 片内集成H.264/MPEG4全双工硬件编解码视频处理单元, 是嵌入式多媒体应用处理器的一颗新星, 可广泛应用于多种产品中。i.MX27处理器内部的硬件编解码模块性能强劲, 可以达到H.264/MPEG4编解码D1分辨率:720×576@25fps;720×480@30fps;全双工编解码同时进行可以达到VGA分辨率:640×480@30fps。

SIP协议

SIP是由IETF (国际互联网标准制定组织) 制定的面向Internet会议和电话的信令协议。SIP是一个应用层的协议, 可以建立, 修改或者中止多媒体会话或者呼叫。它是一个基于ASCII的端到端的协议, 它实际上是在因特网上提供“约会”服务。用来实现VoIP的开放协议, 最常用的有三种, SIP、MGCP (Media Gateway Control Protocol) 和H.323。

SIP协议是专门为IP电话, 尤其是结合Internet设计的协议, 同传统的H.323协议相比, SIP拥有明显的优越性:优异的可扩展性, 大大提高了系统的处理能力;与Internet紧密结合, 使通讯更加轻松便捷的;卓越的开放性, 不仅能够对手机、PDA等移动设备提供良好的支持, 对于在线即时交流、语音和视频数据传输等多媒体应用也能够很好地完成。

SIP协议支持5方面的能力:用户定位、用户可用性、用户能力、会话建立、会话管理。SIP协议本身不提供业务, 但是它提供业务支持的基础。SIP协议本身也不提供会议控制, 但是SIP协议可以与任何一个会议控制的协议绑定。

Linphone

Linphone是基于WEB的IP电话工具, 运行于Linux和Windows Xp下。通过Linphone可以在互联网上和其他人自由地进行声音、视频通信, 也可以进行及时文本信息传送。Linphone是遵从SIP协议开发的, 它需要和支持SIP协议的电话或者代理服务器进行相互操作。如果把基于Linphone开发的VoIP设备通过PSTN帐号注册到电信服务器上, 就可以通过它和普通电话进行通话了。但是这些通话不是免费的, 因为PSTN是收费服务。Linphone是开源免费软件, 可以自由下载和重新发布。

MiniGUI

MiniGUI是面向实时嵌入式系统的轻量级图形用户界面支持系统。目前, MiniGUI已成为跨操作系统的图形用户界面支持系统, 可在Linux/uClinux、eCos、uC/OS-II、VxWorks等操作系统上运行。

MiniGUI为实时嵌入式操作系统提供了完善的图形及图形用户界面支持。可移植性设计使得它不论在哪个硬件平台、哪种操作系统上运行, 均能为上层应用程序提供一致的应用程序编程接口 (API) 。MiniGUI的技术优势:轻型、占用资源少, 高性能、高可靠性, 可配置, 可伸缩性强, 跨操作系统支持等。

视传机的实现

视传机的最主要功能包括:通过IP或者向服务器注册的ID号呼叫另一台接在网络上的设备, 进行视频流实时双向收发 (1帧-25帧/s) , 最高分辨率可达640×480 (广播级图像质量/D1) , 可设置音频流格式, G.711/GSM/SPEEX, 此功能适用于高网络带宽的应用环境。另外视传机还可以实现电影播放, 音视频单向传输 (远程监控) , 音视频录制播放, 图片单双向收发, 音视频邮件收发等功能。

视传机实现这些功能基本原理就是用MiniGUI制作图形界面进行人机交互[1], 用户通过键盘或者遥控器进行指令输入, MiniGUI接收用户指令, 并传给操作系统 (这里我们使用Linux 2.6.19) , 操作系统根据指令的不同进行不同的操作, 例如若用户想进行视频呼叫, 操作系统就将指令发给Linphone, Linphone就在SIP协议的基础上发起视频呼叫, 根据对方不同的状态给出不同的响应, 对方不在线、对方忙、对方正常应答等, 在正常应答的情况下双方协商音频视频通信编解码方式, 建立呼叫, 进行音视频通信[2], 然后任意一方挂机, 退出, 完成一次通信, 期间还可以进行音视频录制等操作。再如若用户想进行电影播放, 则操作系统会调出播放程序, 播放用户指定的电影文件。

视频流的流程如下:由摄像头 (支持自带插针式和TV输出两种) 采集图像数据, 交给操作系统[3], 操作系统根据用户需要, 将视频数据进行本地显示、编码录制或者发送到对端, 对端收到视频数据送入VPU单元进行解码, 然后显示或者录制等。通话过程中音频流的流程为:通过mic采集音频数据, 交给操作系统, 操作系统将数据送给Linphone, Linphone进行一定格式的编码[4], 然后发送到对端, 对端再进行相应的解码, 再将数据输出到音箱或者耳机。

视传机主要软件Linphone的移植

Linphone有很多个版本, 可以通过www.linphone.org免费下载。我们这里使用带视频功能的linphone1.6.0版本, 要将这个Linphone使用在开发板上, 需要做3个方面的工作:添加H264硬件视频编解码器 (使用i.MX27的VPU单元进行视频编解码) , 修改程序使之与操作系统和其他应用程序进行通信, 最后交叉编译Linphone至开发板。

Linphone功能结构

Linphone1.6.0版本的功能结构如图1。

console包括了整个终端界面部分, 将界面操作和命令行输入交由下层处理。

coreapi包含Linphone大部分核心接口函数, 如读配置文件进行程序初始化、呼叫的建立和结束、对SDP消息的处理等。

osip2是一个短小简洁的sip协议栈, 专注于sip底层解析。

exosip是osip2的一个扩展协议集, 它部分封装了osip2协议栈, 使得它更容易被使用。

mediastreamer模块负责语音及铃音等的处理及传输, 视频的编解码 (调用ffmpeg的库) 、声卡的选择等。

ortp将音视频打包为rtp包发送至指定端口。

speex是一种音频解码库。

添加H264硬件视频编解码器

Linphone1.6.0本身具有视频编解码功能, 默认具有H263、mpeg4、mjpeg等编解码器, 我们要仿照这些编解码器的源码结构添加H264解码器, 重要的是将编解码器的软件编解码部分替换成i.MX27的VPU (视频处理单元) 来进行硬件编解码, 因为i.MX27的CPU处理速度有限, 远及不上PC的CPU, 而i.MX27的VPU则是专门进行视频编解码处理的协处理器, 在处理视频数据的时候是不需要CPU参与。

代码的添加过程如下:在向Linphone注册编解码器的地方添加H264编解码器, 使得Linphone具备H264编解码器的功能选项, 注册的内容包括:编解码器id, 一些名称文本等标识符, 编解码器初始化, 视频数据预处理、处理、后处理, 编解码器销毁 (释放系统资源) 等函数链接, 编解码器方法 (进行基本视频编解码处理之外的操作) 等。注册好编解码器后, 就是如何真正实现编解码器对视频流的编解码处理了, 也就是编解码器的初始化, 视频数据预处理、处理、后处理, 编解码器销毁等函数的实现。视频处理的软件部分主要包括内核空间的驱动和编解码库以及用户空间的应用程序。内核驱动负责系统控制和系统资源的申请和释放, 提供一些IOCTRL接口给用户空间的应用程序使用调配系统硬件资源;用户空间的应用程序调用适当的IOCTRL和编解码库函数来实现复杂的编解码系统。

VPU的内核驱动主要包括以下功能:模块初始化、器件初始化、中断服务策略、文件操作策略、器件关闭、编解码库、系统IO操作等。

视频编解码的计算和绝大部分视频流的压缩/解压缩都是由i.MX27的硬件VPU单元来完成的, 这样软件就不需要过多的控制或者时间消耗等来实现一个复杂的编解码系统。VPU的硬件数据流可以用一个mpeg4格式数据的解码实现过程展示 (见图2) 。

硬件编解码速度快、效率高、功耗和热功耗低, 节省了CPU的资源, 实现了良好画质的传输, 这一点充分体现了i.MX27芯片在视频处理方面的优势。

结语

本文基于linphone、ffmpeg、speex、minigui、linux等开源软件实现了嵌入式可视终端软件系统——视传机样机, 如图3所示。样机充分使用已有的开源软件成果进行开发, 实现语音通话, 视频通话, 视频监控, 媒体文件播放等基本的功能。

摘要:本文介绍一款硬件基于i.MX27、软件基于SIP协议的网络视传机的设计与实现, 对该产品的软硬件实现做全面阐述。

关键词:网络视传机,i.MX27,SIP,Linphone,MiniGUI

参考文献

[1]MiniGUI Tech White Paper[R/OL].http://www.minigui.org/docs.shtml

[2]RTP payload format for H.264/SVC scalable video coding[J].浙江大学学报A (英文版)

[3]Video for Linux Two API Specification[R/OL].http://www.linuxtv.org/

[4]The Speex Codec Manual[R/OL].http://www.speex.org/

通信网视频监测系统 第8篇

利用已有的计算机广域网传输通道、通信机房、电源设备等资源, 基于TCP/IP网络技术的通信网集中视频监控系统, 加强对通信机房的管理, 及时发现故障, 提高通信设备和电路利用率及通信质量。

2 思路

系统涵盖数据采集、传输、处理、存储、分析等环节。通过对远端通信机房动力环境实施监测, 了解机房环境和通信设备运行情况;远程视频和语音系统为监控中心的技术专家同现场维护人员进行远程可视化技术交流, 提高对通信设备的维护管理水平, 快速及时的处理故障。

3 总体结构

通信网集中视频监控系统主要由机房动力环境监测子系统、远程视频维护会商子系统和监控中心组成。

机房动力环境监测子系统是对分布的各个独立的动力系统及系统

内的各个设备及机房环境进行监测, 实时监视系统和设备的运行状态检测、记录和处理相关数据。

远程视频维护会商子系统用于监控中心远程对机房环境、设备运行的现场进行图像监视, 可以直观地察看现地及告警等情况。

监控中心是集中视频监控系统的管理中心。监控中心完成对监控点的数据的实时接收、交换, 并对数据进行记录。

监控系统采用的通信传输方式为已建的计算机广域网, 系统网络运行TCP/IP协议。

4 机房动力环境监测子系统及组网方案

机房动力环境监测子系统主要由动力环境监控器和各种传感器组成。传感器将采集到的监测信息传送到动力环境监控器, 经过监控器前期数据处理, 再将数据通过传输通道发送至监控中心。

动力环境监测主要包括:机房温度、湿度、交流电压、直流电压 (模拟量) ;烟雾告警、门禁告警、红外盗情 (数字量) 等。

这些监测量具有实际的意义:交流电的断电、过压、欠压都对基站是否可以继续长时间工作, 保护相关设备有重要的意义。直流总电压关系到通信设备的供电问题, 这个电压过高、过低均会导致通信设备无法工作, 从而出现通信中断。机房的烟雾探头可以检测是否有设备出现燃烧、冒烟现象, 提前发现可以把损失降低到最低。门禁可以检测机房门是否有非法进入, 防止设备被盗, 同时避免门口打开导致空调制冷效果降低。温度传感器可以检测机房的环境温度, 空调损坏时温度升高或者降低均会影响设备的运行。湿度是保证设备寿命的主要因素, 减少设备吸附灰尘。

5 远程视频维护指导子系统组网方案

前端视频捕获单元包括摄像机、球形一体化云台 (含控制解码器、安装支架) 、视频传输电缆等。摄像机是视频监视系统的前沿部分, 是整个系统的“眼睛”。它布置在被监视场所的特定位置上, 使其视场角能覆盖各个被监视环境的各个角落。

网络视频编码器放于前端, 可以对输入的模拟视音频信号, RS485控制信号, 报警信号, 通过以太网或相应的扩展接口传输进网络, 网络视频编码器可以在32k-2M的码率上, 实现从Qcif (176×144) 到D1 (704×576) 的完整编码方案, 与客户端软构成全方位的网络监控系统。

扩声系统主要由有源音箱和麦克风组成, 用于机房现地与监控中心的音频通话。与视频单元共同构成音视频维护指导系统。

6 主要功能

本系统利用数字视频编码设备和高清晰度摄像头, 采用MPEG-4压缩标准和最具稳定特性的嵌入式实时操作系统, 完全脱离PC平台, 彻底杜绝病毒入侵。监控中心可以用鼠标来控制机房现场摄像机上下、左右、变焦、聚焦等动作。可清晰显示机房内的各种设备的状况, 监测中心能够详细观察设备的运行情况, 比如:设备指示灯、电路板在设备的插槽位置以及电路板的型号和类型, 都能清晰的看到;通过监测系统提供的语音通道, 还可以和机房人员直接对话, 监测站点值班人员或技术人员远程交流, 在设备的日常管理和维护中, 给予技术支持和帮助, 提高基层人员的技术水平, 降低故障率, 缩短故障排除周期。

7 监控中心组网方案

监控中心主要完成各监测点的监控信息的统计处理及分析, 并在每一个监测模块的显示栏上标明该模块的分类和地点等基本信息, 并可根据需要设定为不同的组。在每个监测模块现场的数据超过或低于所设定的阀值时, 集中监控业务台会将报警信号显示出来, 系统发出声光告警, 并发送短信到指定手机。

监控中心由集中监控业务台、网络视频服务器、集中监控管理系统软件、网络视频客户端软件、打印机及相关附属设备所组成。

8 IP分配方案

各监测点的动力环境监控器和视频编解码器安装时, 需设置IP地址, 才能纳入到集中视频监控系统进行统一管理。动力环境监控器和视频编解码器接入网络交换机所在地的IP网段, IP地址按照已经实施的网络规划中来划分, 这里就不再重复。

9 方案实施

该方案已经实施, 基本达到方案要求, 方案是成功的。

1 0 方案实施后的问题

方案是基于已有计算机广域网建设, 各监测点与监测中心数据传送受网络动态影响大, 个别监测点数据丢包严重, 监测中心看不到个别站点环境数据和视频图像;细查原因:网络带宽不同, 载荷不同, 网络设备型号不同, 路由设置有差别等原因, 是造成丢包主要因素。

系统管理平台安装在监测中心, 用户使用客户端只能通过监测中心视频服务器转发看视频, 如果有一定数量用户看视频, 势必对监测中心的网络形成大的载荷, 影响监测中心数据采集和分析;用户不能看到机房环境监测数据。

1 1 问题的解决

对网络瓶颈, 增加带宽, 调整路由配置数据, 合理分配载荷, 尽力是同一型号设备在同网段或是同区域, 降低或减少以上问题给网络带来的影响。

1 2 结论

方案的实施, 达到了方案所定目标, 实现了对分布在广大区域的通信网站的机房远程监测, 为提升管理水平, 提供了新的技术手段。

摘要:架构在TCP/IP网络上的机房动力环境监测子系统、远程视频维护会商子系统和监控中心组成的通信站网监控侧系统, 提高对通信站网机房管理程度。

关键词:通信站网,IP网络,视频监控,动力环境监测

参考文献

视频隐蔽通信分析技术研究 第9篇

关键词:信息隐藏,隐蔽通信,隐写分析

1 概述

信息隐藏技术是当前信息安全领域的重要分支, 是继密码学后又一种确保信息安全的有效手段。近年来已经成为信息安全领域一个新的研究热点。信息隐藏技术是在图像、音频、视频、文本等数字媒体信号中嵌入不可察觉的隐蔽数据。其在计算机信息安全中的应用主要包含以传递秘密信息为目的的隐蔽通信技术和以保护数字作品版权为目的的数字水印技术。近年来, 有数据表明恐怖份子很可能通过隐蔽通信技术传递各种恐怖指令, 因此“911”事件以后, 针对隐蔽通信的隐写分析技术得到了各国的重视, 研究成果不断增多。目前基于图像的隐写分析技术发展相对较快, 研究成果较多, 但对基于视频的隐写分析技术发展才刚刚起步[1]。本文对视频隐写分析技术进行了研究, 在特征提取和分类器设计两个方面提出了一些研究思路和方法。

2 基于运动矢量的隐写分析特征:

运动矢量是视频的重要组成部分, 反映了视频中对象的运动趋势[2]。视频帧的运动矢量图和自然图像具有相类似特性, 即相邻运动矢量具有较强的相关性。对于视频而言, 相邻矢量的相关性体现在同一帧相邻矢量和相邻帧相同位置矢量, 即视频的空间相邻和时间相邻运动矢量的相关性。基于矢量的信息嵌入, 必然对这些它们之间的相关性产生影响, 目前大部分这类算法都是通过修改矢量的幅值或相位角实现的, 通过比对相邻矢量的幅值和相位角内在的相关关系, 可以作为隐写分析的依据。

2.1 同一帧中相邻运动矢量的相关性特征

根据ÁÁÂÁ计算马尔科夫一阶转移矩阵和二阶转移矩阵

2.2 相邻帧相同位置运动矢量的相关性特征

对于视频而言, 除了空间相关性外, 还有时间相关性。用式 (1) 至 (3) 类似的计算方法, 得到当前帧与其前帧和后帧之间相同位置矢量幅值差, 并得到前后两个方向上的一阶和二阶马尔科夫转移矩阵, 计算相邻帧运动矢量相位角的马尔科夫特征集。这些特征集较好地反映相邻运动矢量相互关系, 对于信息的嵌入较为敏感。

2.3 判断二次编码后运动矢量一致性

通过计算二次编码的运动矢量幅值、相位角、同一帧中八个方向矢量差以及当前帧与前后帧两个方向矢量差的相关性, 做为隐写分析特征。

3 基于相关向量机的集成隐写分类器设计

相关向量机对比支持向量机具有在线检测速度快, 识别率高等明显优势[3], 不足之处在于训练时间相比支持向量机要慢。视频图像数据量巨大, 简单的用支持向量机或者是相关向量机进行处理所需的检测时间都很大。因此可以在相关向量机的基础上, 利用集成学习的思想, 设计一种基于相关向量机的集成隐写分类器来进行快速的检测。集成分类方案主要分为两个部分。其中每一部分均按照模式识别的思想, 有训练和测试两个阶段

3.1 针对视频帧的相关向量机的分类器设计

对视频隐写分析而言, 我们首先对每一帧建立一个相关向量机分类器, 首先, 目标变量为tÎ{0, 1}。分别代表隐写图像帧和正常图像帧, 这个模型现在形式是基函数的线性组合, 加上一个logistic sigmoid函数。

与SVM相比, 相关向量机的不足之处训练时间相对过长。但是它弥补了采用交叉验证来选择复杂度参数的过程。此外, 由于它能得到一个更稀疏的核。对于测试数据计算时间, 一般要小的多, 而这在视频隐写分析实际中是很重要的。

3.2 针对视频片段的相关向量机的集成分类器设计

在帧分类的基础上, 构建集成分类器。相关向量机 (RVM) 集成的实现主要包括个体分类器的生成和结论综合判断两部分。对于个体分类器的生成策略, 常用的技术包括自助聚集Bagging、提升Boosting等。研究表明:这两种方法在精确性和对不同领域数据的计算可行性等方面的表现都是比较突出的。Bagging采用的是重采样技术, 从大小为n的原始数据集中分别独立随机选取n′个数据 (n′<n) 形成自助数据集, 并且将这过程独立进行多次, 直到产生很多个独立的自助数据集。原始训练集中的样本可能在单个分类器训练中出现多次, 也可能一次也不出现。然后, 每一个自助数据集被独立地用于训练一个分量分类器, 最终的结果将根据这些分量分类器各自的判决结果投票来综合决定。Bagging方法通过重新选取训练集增加了弱分类器集成的差异度, 从而提高泛化能力。

由于Bagging算法的个体分类器之间不存在强的依赖关系, 因此算法可以并行。如果利用现有网络的分布式计算可以进一步提高算法的时间效率, 并且Bagging总是可以改善学习器的性能。在生成多个个体分类器后, 需通过某种综合评判策略进行最终输出结果生成。常用的策略包括多数投票法、基于LSE误差的加权、双层递归组合、选择性集成等。如果采用简单的多数投票法, 综合视频中每一帧的个体分类器的概率输出结果, 就可以给出一个综合的隐写分析判断。

4 结论

本文主要研究了视频隐写分析技术, 设计了视频隐写分析特征提取的解决思路, 从运动矢量的空间相关性、时间相关性及内容相关性这三个方面着手, 分析了运动矢量的特征, 提出了基于运动矢量嵌入的视频隐写分析的特体提取方法。随后对分类的设计提出了解决方案, 从视频帧和视频片段两个角度设计了基于相关向量机的集成分类器设计方案, 较好的解决了视频大数据量检测困难的问题。

参考文献

[1]Yu Deng, Yunjie Wu, Linna Zhou.Digital video steganalysis using motion vector recovery-based features.Apple opt.51 (10) , 4667-77, 2012, JUL 10.

[2]Y.Cao, X.F.Zhao, and D.G.Feng, “Video steganalysis exploiting motion vector reversion-based features, ”IEEE Signal Process.Lett.19, 35-38 (2012) .

音视频通信 第10篇

随着IP网络建设的大发展。现在基于IP网络环境下的视频通信应用越来越普遍,不但一部分政府部门、大型企业采用基于IP的网络传输环境构筑专用的视频通信网,商业、企业更加倾向于将他们的视频通信系统构建在基于IP的传输环境中,以降低建设成本,特别是使用成本。

目前符合国际标准的视频通信应用模式。主要为遵循ITU组织H.323标准的系统。以及遵循ITEF组织SIP的系统。

经过几年的实际应用考验和不断改进。基于H.323的应用模式的应用体系非常成熟。相关产品在稳定性,连接的安全、可靠性等方面可以完全满足市场,特别是专业视频,多媒体会议的要求。由于H.323标准体系非常完备和严格。从而确保了基于H.323的众多产品所具有的良好互通互联性,这一点为H.323协议的大范围推广奠定了技术基础。基于SIP的视频应用是随着NGN的需求而日益得到市场的重视,特别是在3G背景环境下,越来越多的厂商相继推出了基于SIP的视频通信产品,以满足个人用户、移动用户对视频通信的需求。SIP提出的目的是在基于Internet环境中,实现多媒体通信的应用。它和HTTP、SMTP等ITEF的协议一样。是一种基于“文本”的通信协议。结构简单,便于扩充、扩展是SIP与H.323体系的明显区别。

二、视频通信在防火墙环境下的应用

和所有的网络应用一样,无论基于H.323标准还是基于SIP的,视频通信系统都不可避免地受到所依托网络环境的限制。这一点不但影响到视频产品选型、系统结构方案,同时对网络环境本身是否需要进一步改造都有着比较大的影响。在所有影响因素中,除了网络环境传输条件本身外,如何有效解决“防火墙”对视频系统的影响是所有用户、建设方以及视频厂商乃至网络厂商所不得不面对的一个“难题”。

从协议中对握手的定义来看,无论是H.323还是SIP。这个过程和保证网络安全的“防火墙”、NAT等机制是一对矛盾体。

对于目前经常使用的“防火墙”而言,为保证墙内内部网络的安全性,其工作机制一般是屏蔽掉外部数据对受保护网络中计算机的数据访问。而只开放少许的指定地址和通信端口,以保证Internet服务器等设备正常工作。

NAT则通过地址转换,一方面保护了内部网络中各计算机以免被外部恶意数据的直接破坏;另一方面也可以保证内部局域网络对有限公网地址的有效利用。

就目前企事业单位、国家机关的现有网络状况来看。标准的网络安全防护措施一般是“防火墙”和NAT同时使用,而且在所保护网络中开辟出一个DMZ区域供Internet和E-mail等服务器使用,而将所有办公计算机放置于受保护的内网,位于外网的数据只能到达位于DMZ区域的设备,而不能直接访问位于内网的设备,它们之间的数据传输则是通过位于DMZ区的各种服务器来实现。这样位于外网的视频设备A是不能直接和位于内网的设备B直接进行通信的。对于一般的数据应用而言。在这种网络结构下,位于内网的计算机可以访问外网的设备。但和常规的网络应用不同,基于H.323或SIP的视音频通信设备通信时,在握手的同时,发出呼叫申请的一端将自己本身的地址包括在有效的数据包中,设备B向A发出一个呼叫申请,A要根据数据包中的有效地址发出应答信息,而这个有效地址是一个内网的“私有”地址,该应答会被“防火墙”有效屏蔽。由于在指定的时间周期不能得到A端的应答信息。在B端会显示呼叫被拒绝。即使通过开放端口的手段后,A端的应答信息可以到达B端,建立连接,对于有严格合法性、“同源性”检查的H.323系统而言。视音频数据可以从B发送到A。但A的视音频信号难以到达B,这种现象在具体的视频通信网络建设过程中会经常看到。

为有效解决在有安全机制的网络环境中的视频应用,网络设备商已做了大量工作,相继推出了一些支持H.323,SIP的防火墙产品,而视频通信厂商则对标准H.323/SIP产品和系统体系加以扩充,推出了可以在NAY/防火墙环境中使用的视频产品。

下面就几种目前常见的解决方案进行简单介绍:

(1)开放网络/VPN

这种方法是直接将视频设备放置在DMZ区或直接放置在外网,这种办法不需要对现有网络进行大的改造,但这是以基本丧失对视频产品进行网络安全保护为代价的,同时由于和内网之间原有的“隔绝”没有消除。难以实现到桌面的视频应用。这种办法比较适合在全网有较好的安全保障的专网使用。或在VPN内部使用。

(2)选用支持NAT的视频产品

由于H.323产品在呼叫信息的有效数据包中包含了本地的地址信息,在经过NAT转换后,被邀请端设备难以给予有效应答,因而部分H.323产品通过在呼叫过程中,将有效的NAT映射地址取代本地私有地址来完成呼叫应答,解决了地址解析问题。如VTEL公司的VISTA系列产品,不但可以支持NAT的地址解析,还可以指定NAT端口,便于网络设置。这种方案对单一NAT机制比较有效,如ADSL等PPPOE网络环境下,可以不附加其他网络或H.323设备,就可以解决问题。

(3)代理服务器

H.323代理服务器是为解决防火墙/NAT环境下,实现H.323通信的一种“非标准”H.323设备。在标准的H.323系统中没有它的严格意义的定位。和Internet代理服务器一样,它同样被置于网络的DMZ区,在实际呼叫过程中所有的内外网的呼叫都通过它来“中继”。即代理服务器将一个呼叫转换成为由它发起的两个呼叫来完成,从而绕过了防火墙的限制。

使用代理服务器不需要防火墙/NAT设备以及H323设备的特殊支持,实现比较容易,但由于代理服务器本身能力的限制。对呼叫数量以及数据交互量的规模都有一定的影响,同时,使用H.323代理服务器对视频网络建设成本的影响,也是需要根据实际情况考虑的一个问题。如当本地只有一台视频终端时,使用代理服务器不是一个经济的解决方案。

相对于H.323代理服务器,SIP的灵活性使得SIP代理服务器解决方案更为简单灵活,通过位于公网的一个代理,注册服务器,可以较为简单和便宜地解决这个问题。目前Microsoft的MSN就是一个比较好的应用实例。

(4)使用应用层网关(ALG)

应用层网关也就是具有协议分析功能的防火墙产品,通过这些防火墙在判断数据是否可以通过时,不是简单地对IP数据包的包头进行分析,而是要对数据包中的具体数据进行相应的协议分析,并对视音频通信过程中所需求的数据通道进行动态打开,关闭,以保证视音频通信的正常进行。

现在许多网络设备商推出了采用ALG支持H.323和SIP的产品,可以在新建视音频网络时或进行网络改造时考虑。

(5)视频网关

为在标准H.323框架下解决防火墙/NAT对视频通信的影响,出现了一种“变形”的MCU。该产品一般由两个独立的网络接口分别和内网、外网连接,位于内外网的H.323设备分别和对应的端口进行连接,而视音频数据的交换则通过MCU本身来实现。采用该类产品在构造视音频通信网时。不需对网络结构进行改造,实现方法比较直接、简单。如VTEL公司的Codian MCU是这种产品的一个代表,采用双工作端口模式,不需要对内外网的规模进行预先定义,也不会对MCU总的处理能力有所影响,有较好的实际应用效果。

以上是目前经常使用的解决防火墙/NAT环境下实现视音频通信的方法,这些方法之间不是相互独立的。在一个实际的应用中可根据各个通信点的网络状态、使用情况以及建设成本等多方面因素进行综合考虑。

三、结束语

视频通信系统的应用研究 第11篇

视频是一种重要的视觉信息源。随着各种数字影像设备的发展与遍及, 以及多媒体技术和Internet的发展, 人们面对的视频信息种类迅速地增长, 如电影、电视、视频会议、监控录像等。仅中央电视台 (CCTV) 截至2003年就保存有约30万盘视频节目, 目前CCTV开设有15套节目 (日播出量超过300小时, 其中约有1/3是首播节目) 、6套付费电视频道, 以每天保存80-90h的首播节目计算, 每年新增节目将会达到3万小时以上。

随着人们对视频和音频信息的需求愈来愈强烈, 追求远距离的视音频的同步交互成为新的时尚。近些年来, 依托计算机技术、通信技术和网络条件的发展, 集音频、视频、图像、文字、数据为一体的多媒体信息, 使越来越多的人开始通过互联网进行各方面通讯, 缩短了时区和地域的距离。

1 视频通信概述

视频通信实质上是多媒体技术、计算机网络技术与现代通信技术相结合的产物。它通过多媒体技术和网络通信技术的支持, 为不同地域的人们提供了类似与面对面的交流方式, 为身处异地的人们提供了一个相互讨论问题并可协同工作的环境, 它集计算机的交互性、通信的分布性, 以及电视的真实性为一体, 具有明显的优越性。

2 视频通信的组成

2.1 组成

一个视频通信系统包括节点机和通信网络两部分。典型的会议节点机主要由音/视频获取设备、回放设备、媒体编解码器、通信接口卡和会议功能模块构成。网络部分主要指支持实时多点传输的网关和信道。完整的视频会议系统的逻辑结构模型由六大模块构成:人际交互模块, 即视频会议系统的人机界面;会议文档部件, 包括会议文档的自动生成、管理和查询等功能模块以及与数据库的接口模块;媒体处理部件, 包括音、视频信息的获取、编码、回放等处理模块;共享空间部件, 包括共享空间管理模块、电子白板及应用过程共享功能模块;会议管理部件, 包括会议的发起、与会人员的管理 (加入/退出) 、会话建立以及会议结束等处理模块。

2.2 软硬件与网络条件

要进行网络视频通信, 需要一定的软件和硬件设备作为支撑。

所需硬件环境。要使用网络视频会议, 除了要有一台较高性能的多媒体计算机或显示屏外, 还需要配备摄像头、麦克风、音箱或耳机等外部设备, 其中最主要的设备为摄像头, 它是用来进行视频获取的一个重要硬件, 摄像头分为模拟摄像头和数字摄像头两大类, 前者捕获的为模拟视频信号, 需要将其输入到视频捕捉设备进行数字化后方可转换到计算机中使用。而数字摄像头可以直接捕捉影像, 然后通过串、并口或者USB接口传到计算机里。

所需软件环境。

(1) 操作系统软件:目前绝大多数的网络视频会议软件都支持Windows 98/Me/2000/XP/2003系统, 另外也可有一些视频会议软件支持在Linux等非Windows系统中运行。

(2) 网络视频软件:要进行网络视频会议, 必须借助于网络视频会议软件。网络视频会议软件支持点到多点的视频会议应用, 即可以在用户之间, 也可以实现多个用户进行联机视频会议。

(3) 其他软件:音频连接模块、网络交换机、多媒体加速软件、多媒体编码/解码软件等。

2.3 承载网络

要在网络视频通信系统中使用视频, 用户必须具有可供视频流畅传输的网络链路, 也就是说用户必须具有足够带宽的局域网环境和宽带接入Internet的网络环境。

3 视频通信系统的实现

Net Meeting作为一款免费网络电话与协作办公工具, 它除了支持视频、音频的实时交流外, 还提供了文档与应用程序共享、电子白板和远程桌面共享等多种功能, 是一款用于网络视频通信的优秀软件, 使用它我们可以轻松的进行网上视频通信。

3.1 安装视频软件

首先, 检查需要进行视频通信的系统中是否安装了视频软件, 如果没有安装, 可以通过填加组件的形式进行安装。

3.2 连接信息设置

确认Net Meeting已经安装在系统后, 单击“开始”>“程序”>“附件”>“通信”>“Net Meeting”命令, 启动程序。首次运行Net Meeting, 软件会出现一个向导, 要求用户信息进行简单的设置, 单击“下一步”按钮, 输入个人信息。接下来, 向导要求用户设置网络连接方式, 可以根据具体的网络连接情况选择ADSL、局域网等。单击“下一步”按钮跳过Net Meeting服务器设置, 此时向导会要求对计算机声卡和麦克风进行测试。单击“下一步”按钮完成向导之后, 即可进入NetMeeting主界面。

3.3 开始视频通信

新建视频通信。单击“呼叫”“主持会议”命令新建一个视频会议, 在弹出的“主持会议”对话框中设置会议名称 (不能使用中文名) 和密码, 然后, 将“会议工具”中的“共享”、“聊天”、“白板”、“文件传送”四个复选框全选上, 单击“确定”按钮。

呼叫主机。建立会议后, 与会的计算机即可呼叫主持会议的主机, 方法是单击“呼叫”“新呼叫”命令, 或单击Net Meeting面板中的“呼叫”按钮, 打开发出“呼叫”的对话框, 输入IP地址, 并单击“呼叫”按钮即可对主机进行呼叫。

接入验证。此时, 被呼叫方的计算机中会出现是否应接呼叫的对话框, 单击“接受”按钮。然后, 拨入方计算机即可登录会议, 如果在“主持会议”对话框中设置了会议密码, 此时还会弹出一个对话框要求用户提交验证密码。

进行视频通信。各个不同地方的参与视频通信的人员, 只需要单击主界面中的“开始视频”按钮, 即可发送视频流。将发言请求发送到中心站的服务器上, 由主会场主持人来确定允许还是否定发言请求, 一旦确定可以发言, 即可实现通话。

3.4 其他功能

Net Meeting界面下方有四个按钮, 分别对应了“共享”、“聊天”、“白板”和“文件传送”四项主要功能 (这四项功能需要在会议属性中启用, 否则在非会议中处于不可用状态) :

“共享”功能。通过共享功能可以便于同其他会议参加者在获得授权后控制本地主机上的应用软件进行演示与操作。“聊天”功能。单击“聊天”按钮, Net Meeting会弹出一个聊天对话框, 可以对所有或某一与会者发送聊天信息。

电子白板。系统提供多块白板, 与会人员都可通过白板进行绘制矢量图, 可以进行文字输入、粘贴图片等。在主控模式, 主持可以禁止其他人使用白板。

传送文件。“传送文件”功能用来在与会者之间传送与接收文件。使用方法比较简单, 只需单击“文件传送”按钮并选择需要传送的文件即可。

随着网络的发展和视频通信技术的进一步完善, 视频通信技术将越来越多地被人们利用到工作及生活中, 甚至改变人们的生活和工作方式。人们根据自身对网络质量需求的不同, 自由选择传输方式及终端设备, 更多的行业、企业、个人都将享受到视频通信所带来的便利。

参考文献

[1]陈亮, 引爆视频会议[J].互联网周刊, 2008, (Z1) :51.

[2]刘伟, 浅析卫星视频会议系统[J].数字通信世界, 2008, (03) :58-60.

[3]严明, 秦嘉杭.基于文本信息的数字视频检索研究.情报科学, 2004 (7) :865-869.

[4]周洞汝等.视频数据库管理系统导论.北京:科学出版社, 2000.

[5]Rainer Lienhart.Reliable Transition DetectionIn Videos:A Survey and Practitioner's Guide.International Journal of Image and Graphics, Vol.1, No.3, 2001:469-486.

上一篇:情理结合下一篇:数学课外作业设计