一 、LPR:获得稳定的视频流
统一通信使企业的视频应用和语音、数据同步承载在IP网络上,以视频数据包的形式传输,这不可避免地会遇到网络丢包的问题。丢包会造成视频图像马赛克;图像局部变形、屏幕频繁刷新或闪烁;视音频不同步;帧率下降和图像静止等问题。而在统一通信的环境下,由于视频、语音和数据流是同步传输的,因此丢包还会造成总体音频失真、间断或间歇噪音,以及对内容演示质量的下降,如模糊变形的幻灯片或者翻页速度变慢等。这些问题将在很大程度上影响使用者的应用感受。如果网络丢包率过大或者过于频繁,还将会使视频通信过度延迟,甚至造成通信中断。
丢包是由企业内部网络拥塞或外部网络优先级流量冲突等原因引起的。要避免丢包,首先要确定承载网的丢包率、丢包随时间的分布情况,以及视频通话中各个终端和设备的性能。
LPR (丢包恢复)技术是当前解决视频传输丢包问题最有效的方法之一,该技术基于宝利通公司开发的一种新算法,其目的是保护IP视频通话免受网络丢包的影响。事实上,LPR是一种采用前向纠错(FEC)方法对丢失数据包实施覆盖的机制。由发送方系统为发出的数据流添加冗余数据,使接收方系统可以侦测并纠正错误,而无须请求发送方系统重新传送丢失的信息。这种无须等待网络传送就有了进行纠错的能力,使得FEC非常适合于实时通信,如电视广播,IP电话以及IP视频会议。
LPR的工作原理是通过视频终端监控所有正在进行的通话呼入丢包信息。一但检测到丢包,终端就会采用三种手段来保证通话质量:丢包恢复(LPR),动态带宽分配(DBA),以及在不支持LPR的情况下,采用传统的视频差错隐消(PVEC)技术。
不同于大多数差错隐消或规避算法只介入接收丢包信息系统的方式,LPR会介入到视频通话中的各级系统中,通过临时将一部分通话带宽分配给一个数据通道,从而用于发送FEC数据给接收系统来发挥作用。在网络传输发生丢包时,通过上述的一个循环处理,LPR就会增加或减少FEC数据通道的大小,直到找到必须分配给FEC数据通道的最小带宽,从而使得接收系统能够恢复所有丢失的数据包。
当FEC数据通道的大小超过标准值时,系统将反复检测是否可以减少FEC数据通道的大小,从而为音频、视频和内容数据提供更多可用的通话带宽。由于LPR只在检测到丢包时才会占用带宽,这一特点使得LPR非常适合随机的或突发性的丢包环境。
而针对丢包率相对固定的网络环境,动态带宽分配(DBA)功能可以与LPR相配合。DBA也是一种算法,可以在视频通话过程中自动且动态地调整视频码率,以消除或避免丢包。例如,在一个384 kbps的视频通话中检测到一个稳定在10%的丢包率,DBA就会降低约10%视频码率,由320kbps降到288kbps左右,然后重新采样信号,观察是否还存在丢包现象。如果有必要,DBA可以进一步降低视频码率,直到在数秒内不再出现丢包为止。
在降低码率后,如果DBA测定丢包为暂时现象,DBA将会逐步增加视频码率。相反,如果DBA持续检测到丢包现象,它就不再调整视频码率,而是将通话继续进行下去。因此DBA适用于由网络过度使用或吞吐量问题引起的丢包环境。
在参与通话的各方系统都不支持LPR的情况下,可以使用视频差错隐消 (PVEC) 功能。PVEC是一种用于IP视频服务质量(QOS)的算法,它可以对由丢包所造成的影响进行补偿。它通过利用相邻的宏块、前帧和后帧来估算出当前视频帧的内容。与LPR恢复丢失的数据包和DBA的避免丢包技术不同,PVEC的作用是掩盖丢包造成的影响。
在此基础上,LPR使用户可以在误码率较高的IP网络上(DSL、有线、卫星、高冲突LAN/WAN等)进行高质量的视频通话,而无须忍受丢包带来的影响。通过对正在进行通话的码率进行临时调整,LPR可以保护视频通话免受短时间网络问题的影响。一旦网络问题解决,LPR会根据发起通话速率或当前的带宽可用性,自动将码率回调到最高水平。这就使网络的带宽可以得到充分的利用,实现丢失数据包的恢复和传输的实时重建,使音视频数据流通畅,排除等待、断续、噪音或信息混乱等问题,更能够减少动态抖动缓冲区空间以及相关的延时。
但使用LPR会生成FEC通道带宽,这使用于视频通话自身的可用带宽减小。在低连接速率的情况下,可能会引起暂时性帧率降低或分辨率的降低。
二、还原现场:面对面的体验
使用者对于视频影像的清晰、真实要求是没有上限的,这直接导致了以思科网真、北电远真和惠普Halo的诞生,以这些产品为代表,企业视频应用将利用超高清技术,实现还原现场的体验效果。
与传统的视频会议系统相比,这些产品最明显的特点是其超高清的分辨率。据介绍,网真系统采用三块高清等离子显示器,每屏的分辨率可以达到1080×1080p,比现行国际标准的高清分辨率(1280×720p)高一倍,是普通电视机分辨率的10倍。能提供6人同时“虚拟会议”的网真3000,每个等离子屏所需的带宽在2~4Mbps之间,3屏共需要10Mbps左右的带宽,普通的ADSL已经不可能承载,因此需要专门的专线接入或光纤接入。超高的图像表现能力配合高保真音响,以及符合人体工学的环境设计,使思科网真会议系统能够真实表现交流中的每个细节,如“清晰的眼白,皮肤上的汗毛,以及沟通中对方略带羞涩的神情”等。据悉网真的售价是7.9~29.9万美元,目前已在AMD、百事、GE 等大型企业中得到应用。
惠普的Halo工作室系统强调可用于企业远程模拟面对面业务会议。通过Halo连接,每个Halo工作室可支持会议桌前排六人,第二排三至六人,最多12人的会议规模。每个工作室有三台等离子显示器,参会人员能够看到与本人同样大小的图像。另外,参会者还可使用一个安装在等离子显示器上方的50英寸的协作屏幕,与其他Halo工作室中的人员共享其笔记本电脑中的文件与数据。工作室还包括一个高清图文摄像机,可用于拍摄桌上的物品并显示在协作显示器上,真实呈现色彩、阴影与细微之处。同时配备的电话让与会者可以与Halo工作室外的人员联系。工作室配备了广播质量的音频与照明设施,参会者可以使用屏幕上简便的用户界面,通过点击鼠标开始协作。一个复杂的软件控制系统将确保各个Halo工作室轻松、无缝地协同工作。
惠普Halo采用高带宽、独立连接的专门视频交换网络HVEN提供全动视频体验,这使得全球的Halo工作室之间的音频或视频延迟不会被人们感知。为了确保全天候24×7连接,惠普提供了包括:网络运行与管理、远程故障诊断与排除、安全保护、设备保修与后续维护及维修等服务。用户无须管理Halo工作室的运行和维护,目前惠普已在全球18个国家建立了60多个这样的工作室。
据介绍,惠普Halo协同工作室整套房间的售价是39.9万美金,外加每月2.4万~2.5万美元的服务费用。而目前,Halo的用户已经包括梦工厂、诺华、AIG金融产品、必和必拓(BHP Billiton)、佳能等著名公司。
北电的极致远真(Telepresence)系统则充分体现了通信“呈现”的意味,真人大小的屏幕、高清的无缝视频效果和StereoSurround 音效、多媒体内容协同展现、视频多点控制技术(MCU)录制、存档、流媒体以及高清支持服务。更为优化的是这种体验可以按需定制,从两个人的小型会议,到能够容纳28人的大型会议室,用户可实现高清视频通信并同时无缝地展现胶片、数据表格和其他格式文档内容的协同,相当于完全虚拟了人们在会议室中能够完成所有活动。而整个过程完全基于异地的远真会议环境实现。 极致远真系统的设计突出体现了模块化特点;演播室级灯光;专业的声学处理;没有遥控器和人机交互控制;隐藏式摄像头;麦克风和扩音系统。每一个元素都被设计集成在一起,充分体现了技术的无缝透明以及与物理环境有机融合,形成一个统一的音视频专业会议环境。除了不能握手,几乎和面对面地召开会议已经没有什么区别。
北电远真是标准的交钥匙工程,北电提供了整套的服务。包括现场勘查、网络评估、项目管理、开通服务、7×24小时支持,以及专门针对高清系统的MNOC多媒体服务,既全天候会议预约、主动远程监控、会议建立、确认和月度远程报告等服务。
三、QoS:高品质传输保障
在网络中应用QoS并非新技术,但要在视频承载网上实现流媒体QoS却是一个新的技术热点。
企业对视频技术的创新追求是流媒体技术成为应用的主流。流媒体的播放有严格的实时性要求,要求在特定的时间间隔内将特定的数据单元解码显示。而目前流媒体业务开展中存在一些问题,如媒体文件播放中的停顿,马赛克等现象,还有大量用户突发访问一个热门内容时服务器处理困难等等,这些问题都涉及到流媒体的QoS保证。
企业视频由于大多应用于关键业务,而且与语音、数据同步传输,因此对网络传输品质有更高要求。流媒体QoS需要解决两个方面的问题,带宽占用及延迟抖动。
众所周知,视频和语音等统一通信是网络中最耗用带宽的应用之一。带宽的限制一方面会影响到视频播放的质量;另一方面,由于流媒体应用消耗带宽大,会与网络中的其他业务争用带宽,从而对这些业务的正常操作造成影响。
另外,IP网络对视频数据的分组存储转发机制决定了延迟和抖动是不可避免的,所以对流媒体传输而言,端到端的延迟应该控制在一定范围之内。流媒体QoS 采用了先进的视频编码方案,在提高视频数据压缩效率的同时,尽可能消除视频中的冗余信息,使得信源编码输出的数据量尽可能少,从而适应网络最低传输带宽的情况。同时,可以提供灵活的视频质量分级来最大限度地适应网络的动态特性,尽可能为用户提供好的视频质量。
可扩展性编码技术增加了编码输出码流,适应网络带宽动态变化的灵活性,将多媒体数据压缩编码成多个码流。其中一个可以独立解码,称为基本层码流,其他的码流称为增强层。它们不可以单独解码,而只能与基本层和它以前的增强层联合在一起解码,用来提高观看效果。
四、状态呈现:实现透明通信
提到状态呈现(Presence),首先想到的是QQ、MSN等即时通信(IM)应用。视频已经实现了通信双方的面对面沟通,还需要预先了解其状态信息吗?
答案是肯定的。特别是在与企业业务流程实现融合的视频通信中,Presence技术与视频的结合将成为一个新的重点技术。事实上,在企业运营中,各个业务流程基于统一通信发起和执行的过程,可以很好地利用状态服务实现对话双方的透明通信。
Presence用以传达用户状态以及用户通过一组设备进行通信的能力,如:联机、忙碌、离开、脱机等状态。这些状态信息反映出与该用户与其他用户实现通信的可能性。
一个最简单的Presence过程如下:一个用户(Watcher)订阅(SUBSCRIBE)他感兴趣的另一用户(Presentity)的 Presence状态,Presentity接受订阅请求。以后当Presentity的状态发生变化之后,他会发布(PUBLISH)自己的新状态,这个新状态会通知(NOTIFY)给Watcher。
从系统的角度来看,视频前端设备与IM系统中的用户有很多相似之处。比如,系统应时刻了解各前端设备是否已登录到系统;是否正在被用户访问,以及被哪些用户访问等等。
五、协议兼容:在混合中统一
除了视频应用本身的技术热点外,在企业中,除了应用和部署一套IP视频系统,并要实现与语音、数据通信平台的“统一”,以及与企业经营决策的各个业务流程相互融合与嵌入,还要面对跨网络互通、跨功能互操作和跨设备通信的诸多问题。
理论上,视频可以为企业运营各个环节提供多种多样丰富的服务,从最常见的会议、监控到播放、通信、移动等端到端的交互功能。以视频为带动,在统一通信的架构下,企业可以构建自己开放的、性能完善且功能强大的信息交流系统。但这也带来了另一个问题,就是针对于不同的应用,可能有不同的协议和标准,这些标准、协议如何在同一个基于IP的统一通信承载网上实现兼容。再加上企业在部署自己的视频通信系统时,对硬件设备和软件系统有不同选择,那么能够构建一个支持丰富的协议和兼容多种标准,以实现在单一网络环境中提供更多应用功能的综合性平台,就成为企业在视频部署中最常面对的技术难点之一。
视频应用具有非常丰富的底层标准和协议,大致可以分为硬件设备的协议和软件视频应用协议两大类型。硬件协议最基本的是国际电信联盟ITU建立的H.320标准。几乎全球的硬件视频设备厂家都遵循这一标准,并推出了基于H.320标准的视频会议系统,如华为、Polycom,Vcon,Vtel,RADVISION等厂家。而软件视频会议系统的视频编码则多采用互联网标准化组织ISO的MPEG4标准规范。MPEG4的带宽适应范围广,支持码率从9.6Kbps到8Mbps,压缩率更高。在相同的网络带宽情况下具有更好的视频图像效果。目前硬件协议和软件协议之间已经开始出现融合和兼容的态势,在硬件视频协议中,H.323协议族的 H.264编码就采用了MPEG4的技术规范。
在实际应用中,用户在使用视频会议或者监控、通信等服务时,构建一个统一的通信平台,使得各种应用能够融合统一。避免设备、应用间不能互通、协作的问题是实现企业统一通信非常重要的门槛。例如,同时支持 3G、H.323、SIP和Wi-Fi、WiMAX等协议之间的互通等,用户可以根据自己需求灵活组合。
在这方面,RADVISION提供了一个在统一通信业务平台(UCS)上,实现视频会议、桌面应用、IP电话、3G移动视频应用、视频监控、视频存储六方面融合的协同解决方案。UCS的技术核心在于,可以兼容各种网络协议和媒体控制处理标准。协同各种终端以及Office桌面软件,实现多协议的转换和协同的“五混”――混协议(支持多协议)、混音、混屏(视频协同)、混网(移动网和互联网融合)、混终端。RADVISION公司是H.323协议的发明者之一,也是后来众多协议的主要发起者和标准制定成员。因此,其实现了通过底层协议融合的方式,支持不同网络协议的混合,实现对多种最终应用简化的思路。
企业希望获得高品质、高清晰和高度简化的视频技术,并将其应用在所有需要交流和沟通的领域,如通话、会议、谈判、培训、监控,甚至远程医疗。利用这些技术,通信者不再需要地理位置上的“贴近”,因为网络代替了巨大的物理空间距离。未来我们只需要坐在屏幕前,就能在“虚拟的现实”中享受真实的、所有的沟通方式。