监控系统是业务应用的前沿,而先进、稳定的数字化存储系统是整个业务应用的基础支持平台,有了可靠、先进的存储管理系统,整个监控业务数据才能够被良好保存,并可进行方便的查询与利用。因此,在数字监控录像的基础上,建立先进的监控数据海量存储系统是当前监控系统数字化、网络化发展的必然趋势。
用户需求分析
本工程需进行存储的摄像机数量为450只左右,每路每小时的数据量约为200M/H/路,每天平均按8小时计算,一天产生的存储数据量约为450×200M×8=720000M,即约为703G(720000M÷1024M/G≈703G),每个月按22个工作日计算,一个月产生的数据量约为22×703G=15466G≈15.1T(15466G÷1024G/T≈15.1T),按照安全管理和业务需求,资料需保存的时间为一年,一年的存储容量约为181.2T(15.1T/月×12月=181.2T)左右。
于是拟定本工程存储方案如下:
视频数据的在线存储采用SAN存储架构,通过光纤区域网将数据实时写入到磁盘阵列中,磁盘阵列至少要求具有16TB(15.1TB)的数据存储空间,可保存整个系统大约1个月的视频数据(450路每天录像工作8小时,每小时200M计)。
针对190TB(181.2TB)的年存储量,考虑选用190TB的离线磁带备份存储。即每月做一次全备份,周一至周五增量备份,月末灾难备份,无人干涉的备份时间设为一个月,一共保存12个月的数据。
数据保存采用多级存储的方式,所有数据在线缓存1个月,近线存储1年。
根据上述要求,每天产生的监控数据量为730GB(703GB)左右,所有数据保存一年共有约190TB(181.2TB)的数据,这种数据规模我们采用在线、近线相结合的两级存储结构就可以满足存储要求。其中在线缓存1月的数据量为16TB(15.1TB),然后使用高密度数据流带库能满足所有数据近线保存1年181.2TB(约190TB)的要求。
由于本系统要存储的数据量十分庞大,在线光纤磁盘阵列除了要具备数据缓存1个月的能力外,还需要具备近线数据的检索回迁用空间,这部分空间设计预留1TB。
综上,我们认为,监控数据存储系统将由以下四部分构成:监控录像传送子系统、监控录像多级存储及管理检索子系统、服务器子系统、光纤存储网及以太网络子系统等,各部分之间紧密联系、相互配合,共同构成有机的统一整体。
系统总体结构设计
系统物理结构
监控数据存储系统的整体物理结构参见图1。由图可见,整个监控数据存储系统采用LAN以太网(100/1000Mbps)和SAN光纤(FC)存储网并存的结构。这种双网结构是目前应用最多、最适合、最为成熟的海量视频存储管理系统的拓扑结构,对大量的监控录像存储来说,这种结构也最为合理。
系统中光纤(FC)通道是大量监控录像在多级存储设备之间进行归档、恢复的传输通道;以太网(LAN)是前端硬盘录像机与中心存储系统的连接通道,同时负责传输检索信息、管理信息、以及网络控制信息等业务数据。