SAN网络存储系统

2024-08-26

SAN网络存储系统(精选7篇)

SAN网络存储系统 第1篇

存储区域网络(SAN)是一种高速网络或子网络,提供在计算机与存储系统之间的数据传输。存储设备是指一张或多张用以存储计算机数据的磁盘设备。一个SAN网络由负责网络连接的通信结构、负责组织连接的管理层、存储部件以及计算机系统构成,从而保证数据传输的安全性和力度。

智慧文博(博物馆)系统需要存储的数据包括:

(1)藏品数据:包括藏品、文物的文字、二维图片、三维图片、影像资料等;

(2)图书数据:图书档案;

(3)考古数据:包括三维数字建模、文字记录、照片、地图分析数据等;

(4)非遗数据:包括视频、音频等;

(5)安防数据:包括监控视频、图片、报警、文物温湿度监控数据等。

由于博物馆保存着以上各种馆藏文字、图片、视频以及流媒体信息,数据的存储量大,种类繁多,为了满足大容量存储的需求,并考虑到性能、扩展性、可靠性等因素,我们提出采用存储区域网络(SAN)来统一为应用系统提供存储服务。同时利用SAN网络的融合性和可扩展性,实现“服务器群一SAN网络一存储池”新一代IT架构,以降低博物馆的投资和运营成本。

2 SAN存储架构

我们以一个综合型博物馆群系为例,包括一个总馆、七个分属博物馆及两个研究所。为了满足博物馆各应用系统对于存储的需求,并考虑到性能、扩展性、可靠性等因素。建设存储区域网络(SAN)来统一为总馆及其分馆各应用系统提供存储服务。这样既可以有效地提高整套系统的存储利用率,简化管理和维护的工作量,同时有利于实现数据的集中备份。其存储架构如图1所示。

SAN允许存储设备和服务器之间建立直接的高速网络连接,通过这种连接可以实现只受光纤线路长度限制的集中式存储。

SAN使用局域网和广域网中类似的单元,实现存储设备和服务器之间的互连。这些单元包括:路由器、交换机和网关。SAN可在服务器间共享,也可以为某一服务器所专有,既可以是本地的存储设备也可以扩展到地理区域上的其他地方,方便灾备平台的建立。

借助SAN存储区域网,基于高速交换平台,运行虚拟化存储管理软件,将磁盘等各种存储设备连接起来。

3 存储硬件

至少需要4台应用服务器,其中一台上运行Oracle 11g数据库,数据系统平台提供图文资料的查询检索服务。

其余3台和1台Windows服务器提供应用系统平台,主要应用为:藏品数据、三维数据、影像数据的资料检索平台功能。

磁盘阵列存储系统:作为图文数据存储设备,存储图书资料、音视频数据等。

另外至少需要4台存储服务器,1台用于前端所有业务系统的生产存储,2台用于备份存储,还有1台用于灾备存储。

4 数据处理

数据处理服务平台将各种存储在服务器上的博物馆数据资源(如图像、三维、视频、音频等)按规范的元数据定义整理、加工、组织,形成有序的数字资源库,并且在此基础上,提供以资源(如文档、影像、图纸等)利用为目的的多媒体发布和服务。数据处理的重点在于有效管理数字资源形成的一体化过程以及成果,将纷繁复杂的多媒体资源形成具有数字化保存、利用价值的资源,化无序为有序。

如图2所示,4台存储系统分工明确,主存储作为总馆数据中心前端所有业务系统的生产存储,前端的服务器通过万兆卡与中间万兆交换机连接,再与存储相连,构建整体的生产万兆IP SAN。备份存储,与主存储构建总馆本地数据中心的备份千兆IP SAN,灾备存储构建基于广域网的备份IP SAN。将主存储的业务系统数据备份到异地灾备中心存储上。

4.1 数据处理单元

(1)主存储:作为数据中心主要的生产存储平台,将所有的在线业务系统统一挂载到主存储上,实现业务系统集中管理。其次,通过主存储的复制功能,将部分业务系统的数据同步到备份存储上。数据同步策略有基于时间点和基于增量多种方式,采用基于时间点的方式,每天完成一次数据同步,达到以天为单位的数据备份和恢复。其次,再在主存储上配置以周为单位的快照功能,达到周级的数据备份和恢复,通过快照视图可做月级的数据恢复功能。

(2)备份存储:作为备份存储。通过复制功能,对主存储上业务系统数据进行备份。一旦主存储硬件故障,备份存储上留有数据副本,保证数据不丢失,每天做一次数据同步,同步时间设定为夜里带宽占用低的时段。

(3)灾备存储:生产中心数据的远程备份。异地灾备存储作为生产中心数据的异地备份资源,为总馆提供统一的数据备份。当总馆的存储出现问题时,可通过异地灾备的备份数据进行恢复。灾备存储也配置复制、快照功能。通过快照功能,为生产中心的集中备份数据提供多个时间点的数据保护,避免软故障带来的数据损失。通过复制功能,接收来自生产中心四台核心存储上的备份数据。

(4)数据统一处理:实现对业务及设备的统一管理、资源的统一调配。只需通过Web浏览器就可访问数据管理服务,轻松管理存储域中的设备资源和数据业务。主要功能模块包括:所有存储设备拓扑展示、用户分级管理、业务管理、数据恢复流程管理、告警信息和系统监控等。

4.2 数据存储空间

数据中心的应用现在是多样化的,因此在提供足够存储空间的同时,合理地采用及分配存储空间和RAID方式,最合理、最优化地实现存储系统的性能是至关重要的。

主存储的存储空间需用于生产存储和快照空间两部分,而备份存储的存储空间也需要分为两部分,一部分用于复制卷,完成与主存储的数据同步,另外一部分用于提供快照空间。RAID创建时,从成本角度考虑,应该尽可能选择RAID 5,因为在不考虑Hot Spare磁盘的情况下,使用RAID 5具有N-1块磁盘的可用存储空间;两部分均做RAID 5数据保护,同时保留一块热备磁盘用于磁盘损坏后硬盘自动替换。

4.3 数据迁移

业务系统集中过程中,会涉及到需要将业务系统数据从服务器本地硬盘迁移至主存储上,采用的数据迁移方法主要如表1所示。

(1)直接拷贝方法

关闭数据库后,将存储挂载到数据库服务器上,利用操作系统实现磁盘数据的直接复制,等待复制完成后替换原来数据所在盘符,适合于脱机迁移的环境。

(2)数据库工具方法

对于数据库数据,还可使用数据库的自身工具,如Oracle自带复制工具等操作。

5 统一灾备平台

整个灾备平台包括两大部分,分别为数据中心作为生产中心的三台存储设备和异地灾备中心的一台灾备存储设备。

5.1 灾备平台规划

(1)生产中心

三台存储设备分别挂载不同的业务系统,每台设备前端主机均通过iSCSI接口与后端存储设备连接,将各业务系统数据集中存放到各自对应的存储设备上,进行统一管理。

每台存储均配置复制、快照功能。通过快照功能,为业务系统的数据提供多个时间点的保护,避免软故障带来的数据损失。通过基于广域网的IP复制功能,可将生产中心三台存储设备上的数据备份到灾备中心。

(2)异地灾备中心

统一灾备平台建设将达到如下目标:

1)实现总馆数据中心本地的数据大集中和异地灾备;

2)将总馆数据中心多台存储设备数据统一到同一远程灾备体系中,可应对硬件故障、软件故障、自然灾害等不同类型的灾难,并提供快速、可靠的恢复手段;

3)灾备系统设计支持性能、容量和功能等多个纬度的可扩展性,满足未来对网络、存储资源和灾难备份系统的需求和规划;

4)实现对整个灾备系统的设备、资源和业务等的统一维护和管理。

5.2 容灾链路选择

整个灾备系统构建在广域的IP网络基础之上,因此网络规划比较简单,只要选择适当带宽的IP链路即可。

表2给出了在特定数据库环境下(40公里距离,MPLS VPN网络,Oracle数据库),复制的传输速率参考值。

由表2可得知如下结论:

(1) 155Mb以下带宽的IP链路,可充分利用带宽;

(2)小带宽链路下,复制压缩效果明显,可达2~3倍,不过压缩比与数据格式相关。

6 云计管理平台

云计算管理平台提供面向laaS服务的运维流程。数据中心建设完成后,七大场馆将可以不再需要各自采购服务器设备。当某个场馆需要增加新的服务器时,只需要在云管理平台提供的Web页面上递交申请电子流,并在电子流中说明所需服务器的规格和用途即可。数据中心管理员接收到该申请电子流并批复后,云管理平台会自动生成满足要求的虚拟机并提供给申请者。整个流程中管理员只需要对申请进行批复,选择同意与否即可,其他配置步骤将由系统自动完成。该方式大大简化了管理员的操作,提高了工作效率,同时也减少了由误操作带来的系统故障。

云管理平台除了能够分配计算资源、存储资源和网络资源外,还可以分配防火墙、IPS、服务器负载均衡、数据库等常用IT设施,充分满足各场馆IT运维人员在云平台中搭建自有业务的需要。

7 结束语

在信息日益膨胀的今天,存储系统必须得到和主机、网络、应用一样的重视。未来的信息系统规划和建设,必须从主机、存储和网络这三个方面入手,取得最佳的均衡,从而得到功能强大、扩展性强、易于管理、高投入产出的信息系统。

SAN存储区域网络技术在博物馆建设以及其他行业的网络应用发展中都有着重大的意义。SAN网络实现了存储区域网络的集中性管理,从而降低了存储网络的管理成本,大幅度提高了管理效率;SAN网络把传统的LAN网络从备份存取中解放了出来,这样LAN可以专注于应用系统的工作,大大缩短了备份存取的时间;SAN高度的冗余性同时也给存储系统的可用性带来了极大的改进。SAN存储区域网络技术的这些优点都为更好地服务于智慧文博系统的建设提供了良好的基础网络平台。

参考文献

[1]张小朋.智慧博物馆——总说[J].南京博物院网站-专家博客

SAN网络存储系统 第2篇

传统数据存储以服务器上的磁盘空间为主,或者后端连接着SCSI阵列(称为DAS系统),附属于一台服务器的存储设备不能被其他服务器共享。DAS在医院信息系统发展早期应用较为普遍,但随着医院信息化的不断发展,这种技术暴露出了诸多弊端。如存储空间得不到合理的利用、造成数据的分散不易管理、存储架构的扩展性差等。这就要求我们建立一种全冗余的、高可靠的、高效的、先进的基础存储架构来保障数据的安全性,保证业务的连续性。

2 构建医院的网络数据存储系统

2.1 系统需求分析

随着医院业务数据的增加,而且各种应用对数据的依赖性越来越强,数据的有效汇集、集中管理、综合分析以及容灾备份等处理要求日益提高。医院的业务系统通常对存储系统提出以下需求:数据集中化;数据安全性;数据海量化;传输高速化;高可靠性与高可用性;提高兼容性和可扩展性[1]。

2.2 系统设计原则

系统设计充分满足医院的业务需求,并考虑未来业务发展的需要。系统设计时要充分考虑系统的实用性、先进性、安全性、扩展性、开放性。

2.3 系统的实现方法

我院的HIS采用3层架构:数据库服务器、中间层服务器和客户端。客户端访问到中间层服务器,中间层服务器与数据库服务器进行数据通讯。数据库服务器主要完成数据处理,中间层服务器则分担了客户端的访问任务。

配置2台IBM P5 570小型机作为数据库服务器,采用双机集群方式,2台主机共同工作提高了工作效率。双机集群方式区别于以往的双机热备方式。双机集群方式为2台主机都在正常工作,共同承担工作处理同一事务,当其中一台主机发生故障时,另一台主机承担所有工作;传统双机热备方式为只有一台主机在工作,另一台主机为备用状态,当工作主机发生故障时,备用主机启用代替故障主机工作。双机集群方式与双机热备方式相比有2个优势:(1)2台主机共同工作提高了工作效率,无形中提高了主机的性能;(2)双机集群方式充分利用了硬件资源,而双机热备方式相当于有一台主机在闲置。

配置4台IBM 3850服务器作为中间层服务器,4台服务器只要有一台能够正常工作就能保证HIS的应用,大大提高了系统的性能和容灾能力。同时配置2台RADWARE负载均衡器,相互作为备份,客户端的访问首先提交到负载均衡器,再由负载均衡器自动分配4台中间层服务器所承担的工作量。

采用2台IBM 4800存储作为双存储磁盘阵列柜,数据首先存储于本地磁盘,再通过磁盘柜自带的同步异步复制功能将数据复制到另一台磁盘阵列柜中,实现2台磁盘阵列柜中的数据互为备份。

配置2台8口的SAN switch交换机用于服务器与存储之间进行数据交换。2台数据库服务器和2台IBM 4800存储均配置HBA光纤通道控制器卡,通过光纤连接到SAN switch交换机形成SAN网络。每台数据库服务器和存储都分别以双光纤连接到2台SAN交换机上,形成设备冗余和线路冗余,提高系统的安全性。大容量数据传输是通过光纤网络完成,不占用局域网络带宽。而且数据库服务器和存储设备都可以很方便地进行灵活扩展。

为了保证数据的可靠性和应用系统运行的连续性,采用飞康CDP数据保护设备,通过光纤连接到SAN switch交换机,实现操作系统级的保护。数据(文件和数据库)的实时备份,真正实现备份数据的快速恢复和多点恢复,在不到5 min的时间内可以恢复操作系统和数据,保证应用系统7×24 h的运行。

由服务器、存储和数据保护系统组建了整体SAN架构网络,采用了全冗余设计,避免了SAN架构单点故障现象的出现。主机中配置的HBA卡端口、光纤通道交换的端口和存储前主机端口的传输速率均为4 Gbps,从而实现了4 Gbps的光纤存储区域网络。

2.4 系统的拓扑结构

根据本系统的总体设计和实施,最后形成的拓扑结构如图1所示。

2.5 系统的应用效果

该系统在我院已经运行1 a多,保障了各种系统应用的高效稳定安全运行。该方案以SAN存储架构来整合数据,从而实现医院的统一数据存储平台,并作为将来业务持续发展的基础数据业务平台。整个架构解决了传统数据存储的所有问题。在资源的合理利用上,所有的存储空间都在存储阵列上,可以通过管理软件按应用需求划分;在可扩展性上,未来若需要扩容,只要通过增加硬盘,就可以达到扩容的要求,而整个扩容过程不会中断业务,不会停机,保证了业务的连续性;在可靠性上,全冗余的架构,整个架构不存在单点故障,任何的单点失效不会影响业务的运行。

3 结束语

信息技术的发展推动了存储技术的不断更新,SAN的存储架构是新时期最新存储技术发展的趋势。SAN不仅是存储技术简单的升级,而且是存储技术发展过程中的一次重大革命,其应用和发展不可限量[2]。它所具有的高扩展性、高可靠性的网络存储技术,非常适合海量数据的存储、查询和备份及远程管理。特别是随着科技的发展,定有更多、更好、更廉价、更成熟的网络存储技术展示在世人的面前,为医院信息系统的应用创造更好的条件,使数字化医院的基础设施建设更上一层楼。

参考文献

[1]张建中.一种基于SAN架构的存储网络系统的设计与实现[J].中南大学学报:自然科学版,2008(2):350-355.

SAN网络存储系统 第3篇

1 存储网络管理

只要网络中的服务器与存储器之间还存在隶属关系, 存储管理应用程序的工作重心就将只集中在服务器一端 (存储器的直接所有者) 和特定的操作系统上。存储网络将管理的重心从服务器转变到存储器, 并且允许存储管理程序可以独立于某台服务器和某个特定操作系统而处理数据问题。

SAN的管理具有层次性的功能, 这些功能可以作为单独的应用而存在, 也可以集成在一个管理系统中, 在这个层次结构中, 低层向高层传送一些状态和事件信息, 同时高层也向低层的特定代理 (agent) 发送命令 (command) 和查询 (query) 。管理结构建立在SAN中的可管理设备 (如主机适配器、交换机和桥接器等) 互连的基础之上, 这就好比管理实体存在于磁盘阵列和磁带子系统中一样。上面所列的这些设备通过一些协议, 与其相应的设备管理应用程序进行通信。然后设备管理应用程序进而还可能与上层的存储器以及存储器资源管理器进行通信, 这些存储器以及存储器资源管理器提供了到企业级系统管理平台的接口。光纤通道硬件和软件厂商都有一定的兴趣, 使他们的产品适应这种伞状的管理策略;为这种将组成SAN系统的各个层次聚合在一起的方法, 方便了所有产品的配置过程。

多个存储网络设备的管理就意味着需要多个设备管理器, 相应地, 也就是需要多个管理工作站或是控制台来支持不同厂商的应用程序。对于IT管理人员来说, 使用多个管理控制台并不是一个好办法。在局域网或广域网中并行开展网络管理的方法分割了管理平台的整体性, 这种方法可促进单个存储网络应用中设备管理器的合并。

2 存储资源管理

在SAN管理层次结构中, SRM (存储资源管理) 应用是更为集成的存储管理平台的一个子集。SRM应用既可作为独立的应用程序使用, 也可作为更大的管理应用的一个模块嵌入到其中使用, 同时SRM应用也可以为同构或是异构的操作系统平台编写[2]。对于SAN来说, SRM应用并不是独一无二的, 它的内部也可能包括工作站附接的 (workstation-attached) 、SCSI附接的 (SCSI-attached) 或者是NAS的存储器。存储资源管理应用只有在多个服务器访问同一存储磁盘阵列, 或者SRM应用工作站自身是SAN附接的 (SAN-attached) 时, 才是SAN特定 (SAN-specific) 的。

如果没有存储资源管理机制, 磁盘的管理就会被限制在一台服务器上。对于一个拥有成百上千甚至上万台服务器的企业来说, 人工收集大量的各种信息, 将是无法做到的。这样做的结果就是:在多台服务器上完全不必要地重复设置相同的应用一些部门的磁盘空间可能没有得到充分利用, 而另一些部门的磁盘空间却不够使用不能恰当地估计磁带备份需求;以及不可预见的磁盘短缺所带来的突然停机。

存储资源管理机制解决了上述问题。它将磁盘信息检索的过程自动化, 并为所有的磁盘资源提供了一个统一视图。每台服务器上的SRM客户程序周期性地更新分配给它的卷和目录信息, 并将更新之后的信息上报到SRM管理器。接着, SRM管理平台将来自于多个客户程序上的状态信息存储到相关的数据库中, 并且依据各厂商设计实现的不同, SBM管理平台还可能提供在超过存储使用上限的时候存储器发出警报的功能。与局域网和广域网中的传统工具相似, SRM应用也可能提供强化的容量规划功能, 该功能方便了存储资源的重新分配工作, 并提供了为可能发生的存储需求进行精确预算的功能。

由于SAN是一种以存储器为中心的模型, 所以SRM应用可以更有效地对存储器使用进行优化, 而不是用来巩固SCSI结构。举个例子来说, 存储网络上的JBOD和RAID在SAN附接的 (SAN-attached) 服务器之间磁盘空间的重新分配上提供了较高的灵活性, 同时也可以在不中断系统的情况下更方便地增加存储池的大小。在更高的层次上, 通过SRM的存储器使用数据信息可以与通过存储网络管理应用的传输利用信息结合起来决定最佳的服务器与存储器配置, 这样可以在满足存储容量需求的同时也考虑到网络的通信能力。

3 存储管理

存储管理是一种更广的存储功能范畴, 除了资产跟踪功能以外, 它的范围还包括磁带备份、存档、数据存放以及存储空间和文件管理策略等。存储管理应用可能是一种伞状的多功能平台, 它既可以作为一整套补充软件产品封装在一起, 也可以作为可完成一定管理功能的专门的独立程序而存在。像SRM应用一样, 存储区域网络结构使得存储管理更加容易一些, 但存储管理却不依赖于存储区域网络结构。然而, 存储管理产品的生产厂商却已经是SAN的支持者, 这主要是因为比起其他的存储结构SAN提供了更高、更好的适应性。

除了备份操作以外, 存储管理的功能还可能包括:监控共享资源的访问过程;调度运行不会造成混乱的磁盘整理程序管理文件系统的增长以及完整性;监视对存储器的跨平台访问。在单个应用中集成的功能越多, 那么对于日常的操作来说, 存储管理就会越简单, 随着SAN中存储器和存档系统越来越多, 系统的集成度就会越来越高。

摘要:SAN的管理是一种层析性的管理应用, 包括从硬件设备管理器层到企业级管理应用层的多个层次管理。由于服务器背后SAN形式网络的兴起, 数据的传输和数据本身的管理, 对于稳定运行来说都是至关重要的。本文对SAN存储网络管理、存储资源管理及存储管理进行了探讨。

关键词:SAN,存储网络管理,存储资源管理

参考文献

[1]刘琰.浅谈IPSAN存储技术在高校数据中心的应用研究[J].电脑知识与技术, 2008 (5) .

一种SAN存储网络安全保护方案 第4篇

针对这些问题, 本文提出了一种针对San存储的保护方案——DSSP (Distributed San Security Project, 分布式存储网络安全方案) 。结合密钥分配管理策略和集中控制等技术, 既可以控制SAN网络中服务器对磁盘阵列的访问权限, 又可以在集中管理设备的控制下, 通过服务器代理来实现对SAN中数据的加解密, 一方面能对数据进行保护, 一方面将加解密工作分摊至每个服务器, 降低数据传输速率的损耗。此外, 管理控制和数据信息使用不同的物理通道, 具有管理独立性, 能够避免单点失效的出现。

1 SAN整体安全方案设计

为了实现SAN数据在访问、传输、存储过程中的安全保护, 本文提出了DSSP (Distributed San Security Project, 分布式存储网络安全方案) 安全保护方案。在方案中, 访问San中磁盘数据的服务器一端以光纤HBA卡与光纤交换机连接, 一端通过以太网交换机与实现集中控制功能的终端控制器相连。在每台服务器上部署代理agent (后面统称agent) , agent通过TCP/IP协议接受终端控制器的所有功能控制, 包括对服务器的接入认证、访问权限控制和数据加解密设置等。管理员拥有对终端控制器的严格功能使用权, 可以对agent端 (也就是服务器端) 的各种功能权限进行设置。

根据对现存的各种SAN安全方案的分析与比较, 本方案具有较为突出的优点:提供认证、访问控制、加解密和交换信息的多层保护, 能保证San数据从访问、传输和静态存储的多方位的安全防护, 并且部署简单。

2 SAN安全方案中的关键技术实现

2.1 DSSP中的认证与会话密钥协议

基于LUN保护方案中, 虽然可以用隔离策略限定服务器的可见磁盘视图, 但对于非法接入或伪装的服务器没有鉴别与限定能力。在DSSP中, 由终端控制器TC使用服务器S的UniqueID对S的合法性进行严格的认证, 认证过程依靠一个认证与会话密钥协议过程来实现, 该过程一方面能够认证S是否为合法用户, 一方面依靠双向认证来抵御认证过程中伪装服务器的攻击。而一旦服务器通过认证, 则最终产生一个会话密钥Keyd, 用于后续S与TC之间的会话消息的加解密。

设TC为终端控制器, S为服务器, UniqueIDTC为TC的认证码, UniqueIDS为S在认证时产生的认证码, P是一个大素数, α为ZP*的生成元。这里用PX (Y) 表示用密钥X对Y进行加密, 而公钥算法采用RSA, Hash算法使用SHA1。

首先我们确定TC存有所有正常服务器的公钥 (KeyS) 集合, 而且S知道TC的公钥Keytc。S的私钥为keys_p, TC的私钥为keytc_p。则认证与会话密钥协议过程的步骤为:

(1) S->TC:发送认证信息M1

(2) TC->S:比对验证服务器, 并反馈认证信息M2

公式中的f (RN1) 为对RN1的整数函数操作。

(3) 二次S->TC:验证是否通过后并发送秘密信息M3

(4) 计算会话密钥KeyD.TC接收到M3并解密得到αy, 双方分别计算KeyD= (αy) x= (αx) y, 得到通信会话密钥KeyD, KeyD用作后面TC与S之间后面所有通信信息的加密与解密, 比如S与TC之间传输的对San数据进行加解密的密钥Keydata。该协议过程的双向认证过程一方面能够防止非法服务器的非法接入和伪装攻击, 实现了方案中接入认证层的功能, 一方面最终生成的会话密钥KeyD用于服务器S与终端控制器TC之间通信信息的加密, 实现了方案中的交换信息保护层功能。

2.2 DSSP中的数据加密方案设计

当前SAN网络中存储的数据大多数都是明文, 对于非授权的强制访问及在不稳定环境中的磁盘阵列的安全问题, 都不能提供有效的防御, 所以本方案提供了分布式管理的方式来实现对SAN中传输和存储的数据进行加密。

当服务器身份验证通过, 与终端控制器之间建立了安全的通信通道后, 才能获取访问权限和加密数据密钥。终端控制器通过管理服务器上的代理软件来实现对服务器的集中控制。终端控制器是DSSP集中控制管理中心, Agent是安装在每个服务器上面的代理软件, File-Drive是文件过滤驱动程序, 其功能如下。

Agent为用户态功能程序, 一方面与终端控制器交互认证和访问控制等信息, 另一方面与File-Drive交互控制与密钥等数据。其主要功能有三点: (1) 搜集服务器的唯一标识符, 用来与终端控制器进行相互认证; (2) 控制File-Drive文件过滤驱动程序对存储设备映射到服务器上的磁盘阵列使用AES对称加密, 避免了非对称密码在密钥分发时损失过多的时间和效率, 在I/O数据通过文件系统驱动转入HBA卡功能驱动前, 给通过服务器的数据加密, 这样, 数据是加密后通过HBA卡包装成FC协议包, 发往光纤交换机; (3) 接收终端控制器发送过来的命令, 将SAN服务器状态及存储阵列的加解密状态反馈给终端服务器。

File-Drive为操作系统内核态驱动程序, 以阻断方式挂接到操作系统的文件系统中, 根据Agent的指令和下发的密钥对文件系统的数据流进行分析、加解密、下行转发、放行与否等操作。FD可识别服务器本地磁盘与SAN网络磁盘, 拥有对出入本服务器的SAN数据的绝对控制权。

3 仿真结果及分析

我们搭建了SAN存储网络, 并引入DSSP方案, 测试了各种算法在加解密过程对数据在SAN中传输速度的影响。本方案对数据块长度对传输速度的影响进行了测试, 分别测试了写入的数据块大小为4K, 8K, 16K, 32K, 64K, 128K, 256K, 1024K和2048K下情况, 发现在SAN网络里面安装代理程序来进行加解密, 对网络传输有一定的影响, 但是采用的加密算法的不同, 所消耗的网络速率也不同。在数据不加密或简单取反的情况下, 随着传输的数据块大小的增加, 其传输速度总体是上升的。采用加密算法后, 数据写入速度会产生变化, 原因有两点:首先, 不同的加密算法有不同的算法复杂度, 例如加密算法中多轮的移位、置换以及迭代次数不同;其次, 不同加密算法对加密分组大小及密钥长度的要求不同, 造成在加密过程中不同的系统消耗。当以数据块大小为128K写入的时候, 数据加密存入磁盘阵列的消耗是最小的, 且综合算法安全性等因素, 最后本方案选择AES算法来实现数据加密。

4 结语

在商用网络化存储的应用中, 高速网络化存储带来的信息安全问题还没有得到足够的重视, 国内对高速存储网络的研究较少, 本文提供了一种针对SAN的安全保护方案, 实现了对SAN网络的多层保护。该方案总体部署简单, 管理方便, 认证严密, 可以保证SAN内的数据安全及通信安全。保护企业及个人在SAN中传输, 交换, 存储的敏感数据。

参考文献

[1]Casimer DeCusatis.企业网络安全及相反加密模型的研究[C].IEEE信息安全和保护会议论文, 2005.

[2]Decru企业数据安全公司.数据要塞应用白皮书.http://www.netapp.com/us/library/white-papers/.

SAN网络存储系统 第5篇

关键词:医院信息系统,SAN存储,存储数据安全,PACS

0前言

医院信息化建设的目标是实现信息充分共享以及业务协同。选取合适的数据存储技术,建立高效、合理的存储模式已成为医院信息化建设和信息安全工作的核心[1]。医院对存储系统的使用主要集中于医院业务系统,包括结构化数据和非结构化数据:结构化数据主要记录与病人相关的数据,包括医院信息系统(HIS)、实验室信息系统(LIS)及电子病历信息系统(EMR)的数据;非结构化数据通常是影像及文档数据类型,包括图片存档及通信系统(PACS)、超声、病理和内镜等系统的影像数据。对于运行结构化数据的信息系统要求高稳定性,当服务器硬件故障后业务恢复时间应控制在5~15 min;对于非结构化数据信息系统要求数据保存周期长,存储容量要大,如PACS每天都生成大量的影像数据。

随着时间的推移、业务规模的增长及患者数量的增加,这些系统将产生大量的数据。如何为医院信息化的不断深入提供可扩展的存储方案,保证存储数据的安全,已经成为亟待解决的问题[2]。医院业务信息的电子化,虽然能够大大提高了医院的工作效率,不断改进诊疗质量,但由于自然灾害、设备故障、操作失误和计算机病毒等因素难免造成病人资料的丢失和损坏,都可能导致病人重复检查、治疗延误,甚至引起医疗纠纷,因此医院数据中心需要设计一种冗余、高效和安全的存储架构,以保证医院各信息系统的安全性、可靠性、高效性和可扩展性[3]。

1 主要存储技术

存储技术发展至今经历了直接连接存储(Direct Attached Storage,DAS)[4]、网络附属存储(Network Attached Storage,NAS)和存储区域网络(Storage Area Network,SAN)[5]三代发展历程[6]。

1.1 DAS

DAS存储设备通过电缆(通常是SCSI)直接与服务器连接。由于早期网络十分简单,服务器在地理位置上比较分散,很难通过远程连接实现互连。

1.2 NAS

NAS包括存储器件和集成的简易服务器,能够支持多种应用协议(如FNS、CIFS、FTP、HTTP等)和多种操作系统。NAS直接通过网络接口连接到网络上,简单配置IP地址后,就可以被网络上的用户共享使用。NAS适用于通过局域网(LAN)传输存储文件和共享文件,重点在于帮助工作组和部门机构满足存储容量迅速增加的需求。

1.3 SAN

SAN是一个由存储设备和系统部件构成的网络。在SAN网络中所有数据操作都在高速、高带宽的网络中进行。SAN存储实现地是直接对物理硬件的块级别存储访问,提高了存储的性能和升级能力。大多数分析认为SAN是未来全院级的存储方案,这是因为SAN便于集成,能改善数据可用性及网络性能,而且还可以减轻管理作业压力。

2 医院原有存储方式及弊端

我院从1999年开始进行医院信息化建设,基本建立了HIS、LIS、科室级PACS和超声管理系统等。2008年以前,医院数据存储未使用专业存储设备,主要采用本地存储方式,数据安全级别较低。随着医院信息化地逐步深入,医院对数据安全也逐步重视,2008年开始采用NAS系统存储PACS影像数据,2009年采用SAN系统存储医院HIS数据。我院原有存储系统的结构,见图1。

通过以上分析,以发现HIS数据存储在SAN中,PACS数据存储在PACS服务器本机磁盘,图像数据储存在NAS中,LIS数据也存储在本机磁盘阵列中。在整个数据体系中,所有数据都采用单一结构,特别是PACS和LIS的结构化数据及其备份都储存在本机硬盘中,存在较大安全隐患。除HIS外,其他系统如果发生硬盘故障都可能引起灾难性事故;同时系统中核心存储设备IBM DS4700,除保存HIS数据库数据外,还用于HIS备份数据,系统利用率低;传统NAS存储也无法满足PACS影像数据的快速增长,使历史数据均被转移到移动硬盘和光盘中,造成历史数据使用不便。

3 医院新存储方式

鉴于上述分析,结合医院新PACS建设的需求,根据SAN网络冗余的安全设计原则,调整医院网络存储结构。调整后的存储结构,见图2。

新系统采用两个EMC2 VNX5100 SAN存储、两个SAN交换机组成双冗余结构的SAN网络,保证任意服务器、SAN交换机和存储系统间都能实现双线路冗余,提高系统的安全性。两个EMC2 VNX5100存储间采用镜像技术,保证系统数据的安全性与一致性,主要用于医院HIS、LIS、RIS及其他业务系统的结构化数据存储。

SAN是一个由存储设备和系统部件构成的基于光纤通讯的服务器专用网络,所有通信都在一个光纤通道的网络上完成。SAN是由专用的交换机和网关建立的与服务器和磁盘阵列之间的直接连接的子网,该子网的存储空间可由网上的每个系统共享[7]。SAN交换机是该数据中心的逻辑核心,它连接主机与存储设备。

PACS的海量图像数据采用EMC2Isilon分布式集群存储系统。该系统通过横向扩展存储解决方案,实现高度灵活且经济的大容量存储。该存储体系利用包含全局命名空间的单个存储池,不需要多个卷,大大简化了数据管理环节。由于该存储体系的高价值、配置简单、超低开销等特性,为PACS提供了接近主存储的可访问性和良好的性价比。

该SAN网络可同时使PACS服务器(SUN SPARCT4-2小型机)与IBM DS4700存储实现线路冗余,使PACS的图像数据保存在EMC2 Isilon集群存储中。新设计中引进EMC2 AVARMAR备份一体机系统,可对所有结构化数据进行远程备份。

4 应用及讨论

2012年10月,我院开始采用上述存储系统。系统采用EMC2 VNX5100作为核心存储,医院绝大部分结构化数据都存储于其中,提高了存储的利用率;同时采用数据镜像技术提高了系统的安全和高可用性。系统所有业务数据统一采用EMC2 AVARMAR备份一体机系统实现异地备份,不占用核心存储资源。

PACS服务器(SUN SPARCT4-2小型机)系统软件需要3TB的存储空间,我们将原HIS的存储器(IBM DS4700)应用于该服务器。

通过对医院存储体系的改进,在提高数据安全性和稳定性的同时也提高了设备的使用率,取得了较好的效果。但是PACS服务器存储需求较大,如果采用镜像备份成本较高,这是新存储系统的薄弱点,有待优化。

参考文献

[1]陈兰香.网络存储中保障数据安全的高效方法研究[D].武汉:华中科技大学,2009.

[2]张艳玲,徐海峰.浅谈云存储在医院信息化中的应用[J].医疗卫生装备,2012,(8):48-49.

[3]李婧,束研.PACS数据存储于管理系统的设计与实现[J].中国数字医学,2011,6(7):71-73.

[4]韩爱华,汪兆来.基于网络环境的存储技术在数字化医院中的应用[J].中国医疗设备,2012,27(8):75-77.

[5]汪竹.医疗信息的数据存储方式探讨[J].医学信息,2011,24(9):58-59.

[6]金崇英,李小勇,白英彩.海量存储系统的发展与展望[J].计算机与数字工程,2011,28(8):193-195.

SAN网络存储系统 第6篇

随着计算机技术和存储技术的飞速发展,军事、气象、石油等高性能运算领域技术得以迅速发展,其数据量也呈几何级数增长,计算机的存储能力,必须适应大规模数据存储和高速数据传输的严峻挑战。对于传统的DAS(Direct Attached Storage) 直连方式存储和SCSI(Small Computer System Interface)存储已经无法满足海量数据的需要,新一代存储设备,SAN(存储域网络)[1,2]架构光纤存储系统,开始越来越多应用于高性能运算领域。但是,对一个数据处理中心而言,不同类型、不同厂家、不同时期的SAN存储系统,各自技术差异较大,难以实现存储资源共享和负载均衡[3,4]。目前的高端SAN存储系统,具有高性能、高可靠性、高可用性、高稳定性、集中统一管理等特点。应用这些技术特点,把多套SAN存储系统进行整合,是一项技术难题,国内外同行业用户都在积极地探索和研究中。

目前,本文例举的处理中心配置了HP XP24000,HDS AMS1000,HP EVA6100,SUN STK-FLX280,IBM FAStT700等7套SAN架构异种光纤存储系统,磁盘存储总容量560TB。这些存储系统分别于不同时期购进,存储技术、I/O带宽、数据读写速度差异较大,而且分布在不同PC集群计算机上,相互分立,无法实现存储资源共享和负载均衡,很大程度影响存储系统的性能。

通过对高端SAN存储系统虚拟整合技术研究[5],利用HP XP24000高端SAN存储系统的外部存储功能[6],使用存储网络整合、Zoning整合、逻辑卷映射整合、外挂存储整合等技术,将不同类型的中低端存储设备实现虚拟化集中管理,对异构的存储环境进行整合,构建大规模SAN存储中心,使其形成统一完整的存储池,最大限度地发挥存储资源的利用率,提高存储系统的整体运行性能,整个存储环境对业务完全透明,实现对存储资源统一管理、按需分配、灵活访问,保证有限的存储资源得到合理和高效的利用。

本文着重阐述了高端SAN存储系统虚拟整合其它存储设备的技术原理和实施方案。

1 HP XP24000高端SAN存储系统技术优势[7]

HP XP24000是HP公司高端SAN存储系统的代表产品。它提供了业界最优的I/O吞吐率(350万IOPS,Cache命中率达100%)。内部采用交叉交换结构(Crossbar Switch),内部连接带宽106.4GB/s。同时数据连接和内部控制连接完全分开,保证了数据信息和控制信息的传输不互相干扰。其最重要的结构创新是采用纵横交换设备代替了传统的总线连接。其技术优势从高可用、可靠性,可扩展性,易管理性,系统安全性等方面全面考虑。

1.1 高可用性和高可靠性

高可用性和高可靠性是整个存储系统设计的基本出发点。HP XP24000系列存储系统可以确保99.999%的高可用性和高可靠性,也就是年平均非计划性宕机时间不超过5分钟。在其整体结构设计中,充分考虑了系统的自身特性,采用100%的冗余体系结构,消除系统中所有的单点故障,充分保证用户数据的高可用性和高可靠性。

1.2 可扩展性

存储系统的高可扩展性对于业务快速增长的行业是十分重要的,主要体现在I/O、系统容量等方面的扩展能力。用户数据可能随时增加,系统必须能够满足用户对存储空间的各种要求。良好的扩展能力为今后系统的平滑升级和能力提升预留了广泛的空间;同时也最大限度地保护用户的现有投资。而且由于整个存储系统网络是按照开放的存储局域网的架构设计,通过光纤交换机连接所有设备(包括服务器节点和存储节点)。所以从理论上来说,系统可以像网络一样自由在线扩展,充分满足存储容量迅速增长的需要。

1.3 易管理性

HP XP24000存储系统主要采用Web界面管理软件Remote Web Console,提供图形化的存储管理界面,方便用户的操作,系统管理员可以方便,直观地监控所有设备的状态,快速及时地隔离出问题的设备,并采取相应步骤进行诊断。同时Remote Web Console可以显示监控存储系统所有部件状态,磁盘空间使用情况,并可将系统信息自动传输到网络管理平台OpenView中,可以使用户统一管理存储网络设备和XP存储设备。

1.4 系统安全性

关键数据的安全性对于最终用户来讲是至关重要的。如何防止操作员误操作而引起的数据损坏,黑客恶意攻击,未授权用户访问,都是在制订存储数据安全策略时所需要考虑的重要方面,用户在SAN环境下应使用一个绝对可靠的安全管理器,以防止数据的非法访问,达到光纤通道或存储区域网(SAN)环境中最大的数据安全性和完整性。HP Security Manager软件可以对用户的数据提供可靠的保障,它可以和光纤交换机的分区(Zoning)功能相结合,控制不同主机对不同LUN的访问,可以在阵列内设置LUN许可,以保护敏感的数据,使用户可以方便地控制服务器主机对LUN的访问,只允许经授权的服务器对某些磁盘区域进行操作,而屏蔽其他主机对这些磁盘单元的读写访问。这样可以有效地保护系统各个用户和应用的安全性及相对独立性。

2 高端SAN存储系统虚拟整合技术

处理中心拥有IBM 512、HP 512、IBM 128等3套PC集群计算机用于地震资料处理,CPU总数2526个,总核数达6432个,双精度浮点运算速度共达到58.2万亿次/秒。各套集群系统分别独立地配置了HP XP24000(2套)、HDS AMS1000(2套)、HP EVA6100、SUN STK-FLX280、IBM FAStT700等7套SAN架构光纤存储系统,总容量为560TB。

2.1 高端SAN存储网络整合技术

在3套PC集群计算机的各个I/O节点上,分别配置2块HBA光纤通道接口卡,与7套SAN存储系统所有主控制器接口,分别连接到2台64端口HP SW4900光纤交换机、4台32端口HP SW4100光纤交换机、2台32端口Brocade SW4100光纤交换机,构建成为一套全4Gb带宽、完全冗余、多通道的大规模SAN光纤存储区域网[8]。SAN存储系统网络整合拓扑如图1所示。技术方案如下。

(1)采用2台64端口的HP SW4900高端光纤交换机作为SAN存储区域网的核心交换设备,与4台32端口HP SW4100光纤交换机和2台32端口Brocade SW4100光纤交换机级联,构建一个大规模SAN存储网络。

(2)2台64端口HP SW4900高端光纤交换机分别连接HP XP24000(200TB)的主控制器接口和24台I/O节点的HBA光纤通道接口。

(3)2台32端口HP SW4100光纤交换机分别连接HP XP24000(100TB)的主控制器接口、8台I/O节点的HBA光纤通道接口。

(4)2台32端口Brocade SW4100光纤交换机分别连接HDS AMS1000(215TB)的主控制器接口和20台I/O节点的HBA光纤通道接口[9]。

(5)2台32端口HP SW4100光纤交换机分别连接HP XP24000(200TB)的连接外挂存储主控制器接口、HP EVA6100的控制器接口、SUN STK-FLX280的控制器接口、IBM FAStT700的控制器接口和10台I/O节点的HBA光纤通道接口。

(6)HP EVA6100、SUN STK-FLX280、IBM FAStT700等3套SAN存储系统与HP XP24000(200TB)的外挂存储控制器接口连在一起,成为HP XP24000的外挂存储设备。

2.2 高端SAN存储Zoning整合技术[10,11]

Zoning整合技术是在光纤交换机上实现的功能。通过在SAN存储网络光纤交换机上进行Zone配置,可以将连接在SAN网络中的设备,逻辑上划分为不同的区域,使各区域的设备相互间不能访问,网络中的主机和设备间相互隔离。Zoning分区是SAN存储网络的一种分区方式,通过Zoning分区,可以进行资源的负载平衡分配,同时也可以帮助计算机系统管理员对访问服务器数据的用户进行权限分配。

根据处理中心SAN存储系统虚拟整合的需求,在2台互相冗余的64端口的HP SW4900高端光纤交换机开发统一的Zone程序文件,并且在SAN存储网络的其它光纤交换机上使能该程序文件,使SAN存储网络中的Zone程序文件统一,从而实现处理中心机房的任何一台I/O节点都能管理任何SAN存储设备中的文件系统。统一的Zone程序文件应包括以下5部分Zone分区。

(1)IBM 512 节点PC集群I/O节点与2套HP XP24000存储系统划分的Zone。

(2)HP 512 节点PC集群I/O节点与2套HDS AMS1000存储系统划分的Zone。

(3)IBM 512节点PC集群I/O节点识别2套HDS AMS1000存储系统和IBM FAStT700、SUN STK-FLX280、HP EVA6100等3套外挂存储系统划分的Zone。

(4)HP 512节点PC集群I/O节点识别2套HP XP24000存储系统和3套外挂存储系统划分的Zone。

(5)IBM 128节点PC集群I/O节点识别2套HP XP24000存储系统和2套HDS AMS1000存储系统划分的Zone。

2.3 高端SAN存储逻辑卷映射整合技术[12]

在SAN存储系统中,逻辑卷映射技术要与光纤交换机上的Zoning功能结合使用,目的是通过系统配置和程序开发,使不同的I/O节点能访问到不同的逻辑卷。逻辑卷映射是存储系统的逻辑卷与I/O节点的HBA光纤通道接口(主机接口)进行绑定,服务器连接不同的主机接口所能访问的逻辑卷也不同。当一个存储系统同时为多个应用系统提供数据存储服务,且不同应用系统的I/O节点分别处于不同的物理地址时,需要将不同的逻辑卷与不同的主机接口绑定,不同的主机接口与不同的光纤交换机或者不同的Zoning分区连接,从而实现不同的I/O节点能够访问不同的存储系统。在处理中心7套SAN存储系统的整合中,通过对每套PC集群存储管理软件逻辑卷映射技术的开发,使所有I/O节点不仅能识别本存储系统的逻辑卷,还要识别其它存储系统的逻辑卷,实现全部I/O节点能够映射识别到SAN存储网络的全部逻辑卷设备,从而实现7套SAN存储系统区域网整合。

2.4 高端SAN存储外挂管理整合技术[13,14,15]

本文利用HP XP24000高端SAN存储系统的外部存储功能,对IBM FAStT700、SUN STK-FLX280、HP EVA6100等不同类型的中、低端存储设备实现虚拟化管理,成为高端存储的外挂设备,虚拟化的外挂设备相当于HP XP24000高端存储系统的一个内部逻辑磁盘设备,由HP XP24000存储系统进行统一管理,最大限度地发挥原有中、低端存储资源的再利用能力。同时,虚拟整合后的存储系统能够较大地提高原有存储的整体运行性能,对用户使用完全透明,并且能够根据不同应用业务的特点和需求,进行灵活分配存储系统、存储容量等各种资源,确保关键业务的高效运行。

为了使处理中心7套存储系统形成统一的存储池,在经过以上硬件架构整合的基础上,在HP XP24000高端存储系统的管理软件上进行技术开发,实现存储资源的统一调度和管理,保证所有存储系统的性能提高。主要技术步骤如下。

(1)登录至HP XP2400存储系统管理操作界面,选择“外部存储管理”,进入编程模式。

(2)选择“端口扫描”, 定义连接外挂存储的端口,进行外挂存储的搜索,包括HP EVA6100、SUN STK-FLX280和IBM FAStT700等3套外挂存储。

(3)选中搜索出来的设备,再逐一对应选中其外挂的端口,将所有的HBA光纤通道接口的WWN(World Wide Name,全球唯一名字)加入到外挂配置中。

(4)检查每个外挂逻辑卷是否都有完全的端口来访问,并将这些外挂的逻辑卷,映射到HP XP24000的控制端口上。

(5)选择“分区定义”菜单,依次在HP XP24000存储系统的控制器缓存(128GB)创建三个缓存分区,并调整缓存分区大小分别为两个4GB和一个8GB。

(6)把创建的三个缓存分区分别增加到3套外挂存储原有的缓存分区中, HP EVA6100 的控制器缓存大小由4GB调整为12GB,SUN STK-FLX280和IBM FAStT700 控制器缓存大小由2GB调整为6GB。

(7)更新并保存控制器中的配置程序文件,确保修改生效。

通过以上存储系统配置和程序开发,IBM FAStT700,SUN STK-FLX280,HP EVA6100等3套SAN存储系统通过HP XP24000高端存储实现统一虚拟化管理,共享HP XP24000存储系统的控制器缓存资源,可以大幅度提高3套外挂存储系统的数据读写速度,用户可以在HP XP24000存储系统和3套外挂存储系统之间灵活访问。

至此,处理中心的7套SAN存储系统之间实现互联、整合,3套PC集群访问SAN存储系统上的地震数据,既可以通过TCP/IP网络实现,也可以通过SAN存储网络实现,不仅缓解了服务器网络和存储网络的数据传输压力,还能够提高地震数据读写速度,提高7套SAN存储系统的整体性能和使用效率。

3 SAN存储系统虚拟整合前后性能对比测试

本文对虚拟整合后的3套中低端SAN存储系统进行性能对比测试,分别在I/O节点和计算节点的操作系统下执行以下测试命令:

dd if=/dev/zero of=/fsname/`hostname` bs=10k count=1024000

SAN存储系统虚拟整合前后性能对比结果如表1所示。通过测试案例可看出,虚拟整合后的中低端SAN存储系统性能有较大提高。

4 结束语

通过高端SAN存储系统虚拟整合技术的研究,把IBM FAStT700、SUN STK-FLX280、HP EVA6100、HDS AMS1000等多套相互分立的存储系统整合成为一个多通道、双链路、双冗余、负载均衡和统一共享的超大规模存储系统,取得的主要成果包括:

(1)中、低端外部存储设备可以共享HP XP24000高端存储设备的性能,提高了中、低端设备的可靠性和数据读写、传输速率。

(2)通过提高原有中、低端存储设备性能,降低总体建设成本,保护原有存储设备的投资。

(3)利用高端存储设备的高级数据管理功能, 实现HP XP24000存储系统内部和外部存储间数据透明地拷贝和迁移,大大简化数据存储管理的复杂性,降低管理成本。

(4)支持分层存储,根据业务需求配置不同性能的存储设备,从而降低总的系统成本。

(5)通过与HP XP24000磁盘阵列的分区功能相结合,可以将整合的外部存储系统划分到特定的分区中,便于管理,并且可以根据应用的需要灵活地将外部存储整合进(或拆分出)HP XP24000存储系统。

目前,该项技术在国内石油勘探行业属首创,技术先进,实用性强,可以在各个地震资料处理等高性能运算领域进行推广和应用,具有一定的指导和借鉴作用。

摘要:随着计算机存储技术的飞速发展,高端SAN存储系统越来越多应用于高性能运算领域。通过存储网络整合、zoning整合、逻辑卷映射整合、外挂存储整合等技术,基于高端SAN存储系统,整合中低端系统,使其共享I/O通道带宽和缓存资源,实现多套SAN存储资源共享,提高存储系统整体性能。对保护设备投资,最大限度地发挥存储效率有着重要作用。

SAN网络存储系统 第7篇

关键词:SAN,网络存储共享软件,StorNext,非线性网络,应用实践

0引言

从90年代开始, 国内各家电视台就已经开始了电视台数字化、网络化的建设。短短几年时间, 从最初的设备数字化到制作网、新闻网、播出网和媒资系统等非线性网络相继搭建, 又到目前热门的全台数字化网络和高清制作网建设。而在所有建设的网络中, 存储架构绝大多数采用的是存储区域网络 (Storage Area Networks, 简称SAN) 结构, 而SAN架构只提供底层的物理上的共享访问支持, 并不提供文件系统层的卷共享访问, 为确保大量客户端主机对同一存储设备的共享访问, 就需要安装专门的存储共享软件或采用专门的共享文件系统。可以说存储共享软件的好坏, 对SAN的存储效率、存储安全以及管理维护等多方面有非常重要的影响。

1典型的SAN存储共享系统

在详细介绍SAN网络存储共享软件之前, 我们先分析一下在非线性网络建设中经常用到的两种典型存储网络结构FC-SAN和IP-SAN在系统结构及卷管理和数据访问方面的特点。

典型的FC-SAN共享存储系统结构如图1所示。

在非线性网络中, FC-SAN存储共享系统被称“FC+LAN”双网结构。这是指该系统由FC光纤通道网络和LAN以太网络两个网络共同构成, 其中以太网络负责工作站与MDS (Meta Data Server) 服务器之间的元数据信息传输和交换, FC光纤通道网络只负责实际素材的高带宽传输。这种网络结构可充分利用两种网络的特点, 发挥两个网络的最大优势。

典型IP-SAN共享存储系统结构如图2所示。

IP-SAN一般被称为单网结构, 是指MDS服务器与工作站之间的元数据和素材都是通过以太网络来进行传输和交换。单网结构具有网络结构简单、可充分利用现有资源、管理维护方便等特点。

2 SAN存储共享软件概述

2.1特点

“高带宽、高性能、高可靠性”的特点, 使得SAN已成为电视台非线性网络的基础存储设施。SAN较好地解决了系统在存储性能、可靠性和可扩展性等方面的问题, 实现了磁盘在物理上的有效整合, 但由于SAN本身不具有提供文件共享的能力, 从而造成存储空间浪费、多机并行处理/集群计算无法有效展开。

网络文件系统协议 (NFS/CIFS) 和文件服务器的出现, 实现了文件共享, 比较好地解决了存储空间整合的问题。但集中式的I/O节点导致了系统性能不佳, 文件服务器成为系统性能瓶颈, SAN的高带宽和高性能的优势得不到有效发挥。

SAN网络存储共享软件的出现, 从根本上解决了以上问题。其特点是:

1.SAN文件系统有效解决了数据共享以及性能需求等问题;

2.提供数据集中存储, 所有客户机都可共享存储空间;

3.文件系统中I/O并发访问SAN存储设备或盘阵设备;

4.元数据性能从元数据控制器获取, 对系统性能影响甚微。

2.2工作原理

所有数据 (元数据、数据) 全部存储在网络存储设备集群上, 元数据服务器负责为每个文件分配存储空间;当运行在应用服务器上的应用程序访问文件时, 首先到元数据服务器集群验证是否具有访问权限, 然后, 从元数据服务器得到所访问的文件内容的数据块号, 根据块号定位到 (卷, 存储设备) , 直接到该存储设备访问数据。

3几款常见SAN存储共享软件

目前在广播电视行业所使用的主流的SAN共享文件系统软件主要有三种。

3.1 SANergy

SANergy是由IBM公司开发, 技术比较成熟、使用广泛的存储共享管理软件。SANergy文件系统可以理解为一个文件系统的扩展, 它能提升嵌入Windows 2003、Unix、和Macintosh操作系统内部的分布式数据共享能力。SANergy将文件服务器扩展后, 充当元数据控制服务器 (MDC) , 这个MDC通过运行SANergy客户端软件的计算机, 管理对SAN存储设备的访问。SANergy不是一个独立的文件系统, 而只是一个文件I/O重定向程序。它截取文件I/O重定向到MDC文件系统管理的磁盘, 所以它只是一个SAN文件系统外壳软件。在异构操作系统平台之间共享数据需要采用NFS协议处理, 性能表现不佳, 实现可用性不高, 不能满足混合平台、大量主机并发工作环境中的性能要求。除了MDC外, 所有SANergy主机都无法为其他LAN主机提供数据共享, 因为它本身就是网络文件系统, 不能再次共享。但SANergy软件安装和使用简单方便, 需要进行设置的参数项少, 费用较低。

3.2 StorNext FS

作为ADIC®StorNext®管理套件中的核心SAN文件系统, Stor Next File System (StorNext FS) 是完全为SAN网络环境设计的文件系统, 不依赖于任何现有操作系统附带的、独立的、跨平台文件系统。

Stor Next FS是真正的64位文件系统, 可以管理巨大的磁盘空间和文件数量, 不同类型的主机可以同时以FC Direct I/O方式访问数据, 中间不需要任何协议转换。因此, Stor Next FS可以充分利用和发挥SAN体系结构的所有优点, 完全摆脱现有文件系统的结构束缚 (现有文件系统是为DAS存储结构设计的, 不能充分发挥SAN的优势) , 特别是在混合平台、大量主机并发工作环境中优势非常突出。采用日志型文件系统的设计, 保证了系统的可靠性、健壮性和快速恢复能力。StorNext FS具有自己的磁盘逻辑卷管理功能, 可以优化组合SAN中的磁盘资源, 并且可以对SAN网络链路进行多通道并发处理、保证带宽质量和实现负载均衡。同时Stor Next FS目前支持Solaris、Aix、IRIX、Linux和Windows等操作系统。

Stor Next软件是目前最热门的存储共享软件, 但是也有缺点, 一是软件价格昂贵, Stor Next软件是按站点收取费用的, 当网络规模较大时, 购买软件的费用就会占用非常大的一部分成本;二是Stor Next软件的设置参数较多, 对技术人员的技能要求很高, 出现问题难以排除。

3.3 ImageSAN

Image SAN是Rorke Data公司专门针对广电行业音视频SAN网络存储应用而研发的, 是Windows NT/2000/XP及Macintosh OSX环境及混合环境的SAN解决方案, 并提供广泛的应用支持和高适应性的容错能力。基于Image SAN的存储共享解决方案通过速度、协作和多任务提高了视频、音频及图形编辑系统的网络化处理能力。ImageSAN软件在视频共享网络环境中性能表现良好, 但在非视频共享环境中表现一般。不过Image SAN实际使用的案例比较少, 特别是大型网络系统中很少用到Image SAN, 非视频共享行业用户对Image SAN更少听闻。

4存储共享软件在非线性网络中的应用实践

4.1背景描述

河南电视台都市频道是以都市人群为主要传播对象, 以社会新闻为主干, 融影视、娱乐、资讯于一体的综合性省级地面频道, 2009年, 与大洋公司合作搭建完成了新闻制作系统, 该系统构建成之后的目标是:一方面要在新闻制作网内部, 完成频道内新闻节目的收录、远程回传、文稿和制作, 并且充分利用现有办公网的硬件资源, 采用B/S的软件架构, 实现在办公网上进行新闻编辑和审核;另一方面要和现有的演播室播出系统进行互联实现新闻类节目的播出, 并且与现有的媒资系统、节目制作系统实现互联互通。

4.2 SAN存储共享软件的选择

在以上介绍的三种常用的SAN存储共享软件中, Image SAN软件产品没有接触过, 并且在业内也很少被其他台选用, 所以对其就不予以考虑。对于SANergy和Stor Next两种产品来说, 各有优势, 也都存在一定的不足, 以下通过一个表格 (表1) 来对这两种软件做个简略的比较。

通过对SANergy和Stor Next的比较, 并考虑到搭建的网络是新闻制作网, 对系统的稳定性、安全性和高可用性都有很高的要求, 我们决定选用ADIC StorNext File System (FS) 作为SAN存储共享软件, 归纳来说, StorNext对于非线性网络来说有价值的特点有以下几个方面:

1.支持异构平台:目前很多非线性网络关键服务器的操作系统采用的是Redhat Linux, 而部分服务器及非编站点的操作系统采用的是MS Windows。

2.元数据服务器支持HA高可用性, 通过实际使用比较, Stor Next的故障切换软件比微软的群集软件MSCS要强大很多。

3.支持将多条LUN绑定成一个大容量文件系统, 单个文件系统容量可以超过2TB。而SANergy单个文件系统容量最大只能支持2TB, 如果网络系统存储容量是20TB, 使用SANergy就需要建10个盘符, 这对后期磁盘的管理和维护就很困难。

4.DLC (Distributed LAN Client) 功能:支持将部分SAN客户端升级成NAS网关服务器, 为部分站点提供NAS方式的访问。

4.3安装环境

本新闻网络系统采用FC+千兆以太网的双网共享存储架构构建网络, 配置了两台MDS (Meta Data Server) 服务器, 考虑到今后升级的需要, 还配置了两台NAS (Network Attached Storage) 服务器作为无卡工作站的存储访问服务器, 同时采用热备份技术实现MDS的高可用, StorNext File的安装环境架构如图3所示。

4.4 StorNext FS实施前的准备

4.4.1磁盘阵列规划

在对EMC CX4-480进行磁盘规划时, 首先把单独的物理磁盘组建成一个RAID Group, 一个RAID Group可以被分成若干个逻辑卷, 这些逻辑卷用逻辑设备编号 (Logical Unit Number, LUN) 统一寻址, 一个LUN卷的容量可以通过合并其他LUN来扩大。合并的结果是得到一个更大容量的LUN, 被称作Meta LUN (元LUN) 。

在使用RAID的情况下, 这些逻辑设备是RAID组的一部分, 分布在所有属于该RAID的磁盘上。一个逻辑设备实际上只是RAID组中的一个分区, 但是却被主机看作是一个物理磁盘。图4是EMC CX4-480一个简单的磁盘规划的案例。一个RAID组包括了5个物理磁盘, 被分成LUN 0和LUN 1。

本系统采用EMC CX4-480磁盘阵列作为存储设备, 双控制器、8个主机通道、16GB Cache、4个盘箱、每个盘箱满配15块400GB 10000rpm 4Gb光纤接口硬盘、配置冗余电源、冗余风扇。因为两个磁盘阵列的划分要求完全相同, 所以就以一个磁盘阵列的划分规划来作说明。

1.创建RAID Group

根据系统的需要, 按如图5所示划分RAID Group。

根据以上对磁盘阵列中磁盘RAID组的划分, 我们可以总结出以下RAID Group组创建信息, 如图6所示。

系统共划分了12个RAID组, 其中RAID Group 0为磁盘阵列的系统盘组, RAID Group 1~7为数据盘组, RAID Group 200~203为全局热备盘组, 除热备盘组外, 其余RAID组均采用RAID 5。

2.创建LUN

对磁盘划分不同的RAID组后, 又把每个RAID组划分为一个或多个LUN, 并分别分配给不同的Storage Processor (存储控制器, 简称SP) , LUN的作用是对磁盘的统一寻址, 它的使用提高了磁盘利用率。举例来说, 如果没有LUN, 一个只需要200GB存储空间的主机可能会被分配一个1TB的物理磁盘, 使用了LUN之后, 只有一个200GB的逻辑设备会被分配给主机, 物理磁盘上还剩下800GB的空间可以分配给其他主机。

根据情况, 对该磁盘阵列共创建22个LUN, 如表所2示。

4.4.2文件系统规划

划分LUN后, 要进行文件系统规划, 文件系统规划应确定以下几个方面的问题。

1.确定文件系统个数, 如果系统中只有一个SNFS元数据服务器, 建议文件系统个数不超过4个。

2.确定每个文件系统都需要哪些LUN, 建议每个文件系统包含三种类型的磁盘卷:Metadata卷、Journal卷、Data卷) 。

3.确定每个文件系统的stripping group个数。

4.确定各个stripping group与LUN的对应关系。

本系统的文件系统规划如表3所示。

4.5 StorNext FS的实施

Stor Next FS的实施按图7所示的流程分步骤进行。

4.5.1 SNFS MDS端程序的安装

1.安装前提

FC驱动程序安装并配置完成;

如果存储需要多路径支持, 确认已经安装多路径软件;

所有LUN都被正确识别。

2.安装顺序

先安装MDS1 (主MDS) , 等文件系统创建完成并激活后再安装MDS2 (备MDS) 。

3.安装软件

SNFS MDS端安装的程序是Stor Next V3.1.2存储管理软件服务端。

4.5.2创建文件系统

Stor Next FS的基本存储单元是条带化卷组。条带化卷组将物理存储设备集成在一起来满足不同逻辑存储的需要。StorNext文件系统由多个条带化卷组组成, 每个条带化卷组可以包含一个或多个磁盘设备或RAID LUN。如图8所示, Stor Next FS支持三种类型的条带化卷组:数据、元数据和日志卷组。元数据是描述文件系统结构和信息的数据, 日志是跟踪和记录文件系统中的任何变化和交易。将元数据和日志数据存储在不同的条带化卷组中, 可以把它们分布在与存储实际数据不同物理磁盘设备当中。元数据分离存储消除了当同时更新元数据和数据时不必要的磁头移动。

根据文件系统的规划, 本系统一共划分了四个SNFS文件系统:SNFS1、SNFS2、SNFS3、SNFS4, 每个文件都包含了三种类型的磁盘卷:Metadata卷、Journal卷、Data卷。

4.5.3配置主备MDS间的HA

Stor Next FS具有元数据服务器故障切换机制。为了排除元数据服务器损坏导致的网络单点故障, 本系统配置了两台完全相同的MDS服务器, 采用热备份技术实现MDS的高可用, 在切换过程中, 热备切换时间小于60秒, 客户端无需重新启动, 网络能够正常运行, 这种备份需要服务器之间存在共享的数据盘。由于主备MDS服务器均能够直接访问光纤盘阵, 因此本系统中, 在光纤盘阵上开辟一块空间作为主备MDS服务器的共享数据盘。MDS逻辑结构如图9所示。

4.5.4安装SNFS SAN客户端程序

1.安装前提

SNFS客户端要求能够通过SAN网络访问到文件系统所包含的Data盘。如果单个数据LUN的容量大小大于2TB的话, 请参照以上描述的Label类型建议中的有关要求, 如无特殊需求, 建议所有的LUN最好小于2TB。

2.安装软件

SNFS客户端的操作系统选用的是Windows XP。必须确定要安装SNFS客户端软件的服务器是SNFS软件可支持的服务器、操作系统版本, 并已完成相应的补丁程序的安装。同时, SNFS MDS客户端还安装Stor Next V3.1.2存储管理软件客户端, 通过Stor Next对在线存储进行访问, 由Stor Next对逻辑卷进行实时监测和管理。

4.6 StorNext FS的数据流结构

Stor Next FS的数据流结构如图10所示。

Stor Next FS客户端访问数据的过程是:

1.非线编工作站通过LAN网络向元数据服务器 (MDS) 发出I/O操作请求。

2.元数据服务器决定该文件是否可用并且该应用或用户是否有权访问该文件。

3.元数据服务器将文件的存储位置发送回非编工作站。

4.非编工作站直接通过SAN网络访问该文件。

4.7系统项目测试

为了验证Stor Next FS的安装是否正确, 功能是否正常, 我们做了两个与Stor Next FS有关的测试, 一个是测试网络系统带宽;另一个是测试主备MDS的冗余切换。

4.7.1网络带宽测试

测试目的:验证网络带宽是否满足节目的需求。

测试方法:因为Stor Next FS本身没有带宽测试功能, 所以我们选用SANergy, 通过针对不同的EMC控制器端口和针对EMC的同一个卷进行读写测试, 然后将各站点得到的数据相加的总合写到合计栏 (表4) 。

测试结论:4个文件系统, 每个文件系统读平均带宽是374MB/S, 写平均带宽是244MB/S。我频道新闻制作网有20个精编工作站, 按照4路25Mb视频计算, 总需求带宽是250MB/S, 所以满足系统的带宽要求。

4.7.2存储管理服务器 (MDS服务器) 冗余切换测试

测试目的:验证MDS服务器的冗余切换。

测试方法:将正在管理文件系统的主MDS服务器关闭, 查看备MDS是否接管服务, 验证切换时间。

测试结论:备MDS服务器正常接管服务, 客户端读写不受影响, 切换时间在5秒以内, 符合要求。

5结束语

本文来自 99学术网(www.99xueshu.com),转载请保留网址和出处

【SAN网络存储系统】相关文章:

SAN存储大集中06-02

SAN存储区域网08-05

SAN存储分析研究09-10

网络存储综合安全06-18

网络安全存储07-13

网络存储设备07-31

网络信息存储论文06-30

基于对象的网络存储06-22

网络存储器设计08-18

网络存储设计特性论文04-24

上一篇:建筑企业改革下一篇:中国古典音乐教学