摘要
ftScalableTMStorage 和 ftScalable Storage G2 阵列是高度灵活、可扩展的硬件存储子系统。了解各种RAID类型和配置选项的优点和缺陷,特别是它们如何与OpenVOS操作系统交互,可以让您创建一个最佳的磁盘拓扑结构。
本白皮书详细介绍了ftScalable Storage支持的各种RAID类型,概述了它们的优缺点、典型用途以及设计最适合OpenVOS应用的磁盘拓扑的方法。
术语
以下术语表定义了本文件中使用的一些常见存储行业术语。
降级模式。VDISK 的一个物理磁盘驱动器发生故障后,但在任何恢复操作开始之前的操作模式。在这种运行模式下,VDISK并非完全冗余,随后的物理驱动器故障可能导致该VDISK的损失。
HBA或主机总线适配器。一个PCI-X或PCI-e电路板或集成电路适配器,在服务器和存储设备之间提供输入/输出(I/O)处理和物理连接。
逻辑磁盘。一个包含一个或多个成员磁盘的OpenVOS逻辑卷。 每个成员盘都是D910光纤通道磁盘机柜中的单个物理磁盘、ftScalable存储阵列中的LUN或任一类型或两种类型的双工对。
LUN 或逻辑单元。在ftScalable存储阵列中,可以是一个子单元,也可以是整个VDISK。
多成员逻辑磁盘。由 至少两对双工成员盘组成的OpenVOS逻辑卷,所有成员盘对上的数据都是带状的。
RAID 开销。特 定RAID类型中用于提供冗余的物理驱动器容量。例如,在 RAID1 VDISK 中,这将是组成 VDISK 的物理驱动器总容量的 50%,因为每个驱动器上的数据都在镜像伙伴驱动器上复制。
恢复模式。VDISK在驱动器故障后重建时的操作模式。在这种工作模式下,VDISK并不是完全冗余的,随后的物理驱动器故障可能会导致该VDISK的丢失。
剥离。通过将数据分割成块并在多个物理磁盘上写入块来提高 I/O 性能的一种方法。
VDISK 或虚拟磁盘。ftScalable Storage 阵列中的一组或多组物理磁盘驱动器,根据定义的 LUN 数量,使用特定的 RAID 类型组织成操作系统认为是一个或多个磁盘。
在本文档中,术语"VOS"和"OpenVOS"在提及Stratus's VOS和OpenVOS操作系统时可互换使用。
1.0 RAID类型
ftScalable存储阵列支持多种RAID类型。 这些类型包括:非容错 RAID 类型(RAID-0、NRAID)、基于奇偶校验的 RAID 类型(RAID-3、RAID-5 和 RAID-6)、镜像 RAID 类型(RAID-1)和组合 RAID 类型(RAID-10、RAID-50)。 在创建每个VDISK时必须指定一个RAID类型。
每种RAID类型都有独特的可用性、成本、性能、可扩展性和服务性特征。了解这些特性,您就可以在创建阵列磁盘拓扑时做出明智的选择。
1.1 非容错RAID类型
ftScalable Storage中有两种非容错的RAID类型,RAID-0和NRAID。
1.1.1 RAID-0
RAID-0 VDISK至少由两个物理磁盘驱动器组成,数据在该组中的所有物理磁盘驱动器上条带化。它提供最高程度的 I/O 性能,但不提供容错功能。任何物理磁盘驱动器的丢失都将导致该 VDISK 中的数据完全丢失。
由于RAID-0是一种非容错的RAID类型,ftScalable存储阵列不能自动将边缘或故障的物理磁盘驱动器从服务中取出,并使用可用的备用磁盘驱动器主动重建数据。相反,恢复完全依赖于传统的OpenVOS系统通过双工磁盘进行容错。
因此,需要进行一系列的手动服务操作(删除故障的VDISK,物理移除坏的物理磁盘,安装一个替换的物理驱动器,重新创建VDISK,重新格式化逻辑磁盘,通过VOS重新双工)来重新创建和恢复任何RAID-0 VDISK。 在所有这些恢复操作完成之前,您的数据是单工的。 有关物理驱动器的插入或移除对I/O处理的影响的更多信息,请参见第11.0节,"物理磁盘驱动器的插入和移除。 对 I/O 性能的影响"。
Stratus 不建议在不使用OpenVOS中基于软件的镜像的情况下使用这种RAID类型。 即使使用 OpenVOS 镜像,考虑到手动服务操作和将数据恢复到完全冗余所需的相关时间,您应该强烈考虑数据丢失的可能性。
1.1.2 NRAID
NRAID VDISK基本上是一个没有任何容错能力的单一物理磁盘驱动器。它不提供条带化,因此具有单个物理硬盘的性能特征。NRAID VDISK具有与RAID-0 VDISK相同的可用性和可维护性。
1.2 基于奇偶校验的RAID类型。RAID-3、RAID-5、RAID-50和RAID-6。
ftScalable 存储阵列支持四种类型的基于奇偶校验的 VDISK。RAID-3、RAID-5、RAID-50和RAID-6。鉴于RAID-3和RAID-50的使用率较低,本白皮书将重点介绍较常用的RAID-5和RAID-6类型。
这些RAID类型使用基于奇偶校验的算法和条带化,以比镜像更低的成本提供高可用性。RAID-5 VDISK使用相当于一个物理磁盘驱动器的容量来存储XOR生成的奇偶校验数据,而RAID-6 VDISK使用相当于两个物理磁盘驱动器的容量,因为XOR和Reed-Solomon奇偶校验数据都会生成和存储。RAID-5和RAID-6 VDISK都将奇偶校验和数据块分配给集内所有物理磁盘驱动器。
与镜像RAID类型相比,使用基于奇偶校验的RAID类型的VDISK所需的RAID开销存储容量更少。创建一个RAID-5 VDISK的物理磁盘驱动器的最少数量是三个,而RAID-6至少需要四个。
一个RAID-5 VDISK可以在单个磁盘驱动器故障中幸存下来而不会丢失数据,而一个RAID-6 VDISK可以在两个驱动器故障中幸存下来。 ftScalable Storage 阵列可以主动从 VDISK 中移除边缘或故障的物理磁盘驱动器,而不会影响数据的可用性。 此外,如果备用驱动器可用,恢复模式会自动启动,无需任何操作员干预、物理驱动器插入或需要在OpenVOS中重新双工逻辑磁盘,因为它对操作系统的处理是透明的。 然后,您可以安排时间更换故障的磁盘驱动器,并创建一个新的备用驱动器。但是,请参见第11.0节"物理磁盘驱动器的插入和移除。有关物理驱动器的移除和插入对 I/O 处理的影响的更多信息,请参阅第 11.0 节"物理磁盘驱动器的插入和移除:对 I/O 性能的影响"。
这两种类型都具有出色的读取性能,但由于不仅需要写入数据块,而且还需要对奇偶块进行必要的计算和读取/修改/重写操作,因此写入性能会受到影响。单一物理磁盘驱动器故障后,以降级模式运行的RAID-5或RAID-6 VDISK对吞吐量的影响是中等的。然而,在恢复模式下重建数据的VDISK对吞吐量影响较大。
一个RAID-6 VDISK运行在降级模式下,由于两个物理磁盘驱动器发生故障,对吞吐量的影响是中等到高等,而一个运行在恢复模式下,两个驱动器正在重建,对吞吐量的影响非常大。
查看表1,了解在降级或恢复模式下使用RAID-5或RAID-6 VDISK运行时对I/O的估计影响。
注意:这些都是估计值,在您的环境中的实际影响可能会根据您的配置、工作负载和应用程序 I/O 配置文件而有所不同。
表1.I/O性能的估计下降
RAID 5 / RAID 6 降级模式 单驱故障 |
RAID 5 / RAID 6 恢复模式 单驱故障 |
RAID 6 降级模式 双硬盘故障 |
RAID 6 恢复模式 双硬盘故障 |
|
改为"Perf"。 | 40 – 50% | 50 – 60% | 50 – 60% | 60 – 70% |
编写Perf. | 10 – 15% | 15 – 25% | 20 – 25% | 25 – 35% |
1.3 镜像RAID类型。RAID-1和RAID-10
使用ftScalable Storage,您可以创建两种类型的镜像RAID VDISK,即RAID-1和RAID-10。
1.3.1 RAID-1。
RAID-1 VDISK是一对简单的镜像物理磁盘驱动器。它提供了良好的读写性能,可以在单个物理磁盘驱动器丢失的情况下生存,而不会影响数据的可用性。读取可以由任何一个物理硬盘处理,而写入必须写入两个硬盘。 由于所有数据都是在RAID-1 VDISK中镜像的,因此与基于奇偶校验的RAID类型相比,RAID开销很大。
从故障的物理磁盘驱动器中恢复是一个直接的操作,只需要存活的伙伴重新镜像。ftScalable存储阵列可以主动从RAID-1 VDISK中移除边缘或失效的物理磁盘驱动器,而不会影响数据的可用性。 与基于奇偶校验的RAID类型一样,如果备用驱动器可用,恢复模式将自动启动,无需任何操作员干预、物理驱动器插入或需要在OpenVOS中重新双工逻辑磁盘,因为它对操作系统的处理是透明的。然后,您可以安排时间更换故障的磁盘驱动器,并创建一个新的备用驱动器。也就是说,请参见第11.0节"物理磁盘驱动器的插入和移除。有关物理驱动器的移除和插入对I/O处理的影响的更多信息,请参阅第11.0节"物理磁盘驱动器的插入和移除:对I/O性能的影响"。
在降级模式或恢复模式下运行时,通常会对性能产生很小的影响。
1.3.2 RAID-10。
一个RAID-10 VDISK由两个或多个RAID-1磁盘对组成,数据块在它们之间呈条状分布。RAID-10 VDISK可提供高性能、可扩展性,并可在多个物理驱动器故障中幸存而不丢失数据。在降级或恢复模式下运行时,服务性、RAID开销和对性能的影响与RAID-1 VDISK类似。
1.3.3 RAID类型特征总结
表2总结了所讨论的RAID类型的特点。它将每一种类型的VDISK按0到5的比例进行评分,其中0为非常差,5为非常好。 您应该只比较每行内的值,行与行之间的比较是无效的。
表2. RAID类型特征
种类 | NRAID | RAID-0 | RAID-1 | RAID-10 | RAID-5 | RAID-6 |
可用性 | 0 | 0 | 3 | 5 | 4 | 5 |
RAID架空 | 5 | 5 | 0 | 0 | 3 | 2 |
阅读性能 | 3 | 5 | 4 | 5 | 4 | 4 |
编写性能 | 3 | 5 | 3 | 4 | 2 | 2 |
降级模式性能 | 不适用 | 不适用 | 3 | 5 | 2 | 1 |
恢复模式性能 | 不适用 | 不适用 | 3 | 5 | 2 | 1 |
2.0 选择一个RAID类型
每种RAID类型都有特定的优点和缺点。通过了解它们,您可以选择最适合您环境的 RAID 类型。请记住,您可以创建多个 VDISK,这些 VDISK 可以使用 ftScalable 存储阵列支持的任何一种 RAID 类型,使您能够设计出最适合您的应用程序和系统环境的 RAID 布局。 您不需要为您的 ftScalable 存储阵列上的所有 VDISK 使用相同的 RAID 类型。
注意:Stratus'使用特定的RAID类型和LUN拓扑结构的OpenVOS系统卷并不意味着这是应用程序或数据的最佳RAID类型。
对于写入吞吐量或延迟并不关键的数据和应用(例如,批处理),或严重偏向于读与写的应用,RAID-5是一个不错的选择。 作为接受较低的写入吞吐量性能和较高的延迟的回报,您可以在给定的容量下使用较少的物理磁盘驱动器,但仍然可以实现高度的容错性。然而,您还必须考虑在降级或恢复模式下使用VDISK运行可能对您的应用程序产生的影响。 与镜像RAID类型相比,基于奇偶校验的RAID类型在降级和恢复模式下的整体I/O性能和延迟受到的影响更大。
对于需要以最小的延迟获得最佳的写入吞吐量的数据和应用(例如在线交易处理系统),执行更多的写入而不是读取,或者不能容忍物理驱动器故障时性能下降的情况,镜像RAID类型(RAID-1或RAID-10)提供了更好的解决方案。这些RAID类型消除了RAID-5或RAID-6的奇偶校验数据的先读后写惩罚所导致的额外I/O,因此写入数据是一个简单的操作。RAID-10通常是比RAID-1更好的选择,因为它允许你在多个物理驱动器上进行数据剥离,这可以显著提高整体读写性能。然而,请参见第5.0节"OpenVOS多成员逻辑磁盘与ftScalable RAID-10 VDISKs对比"和第6.0节"OpenVOS队列深度和ftScalable存储",以了解有关OpenVOS I/O队列、LUN计数和条带化注意事项的其他信息。
对于数据和应用来说,如果在硬盘故障后可以忍受较长时间的单工数据,或者对较长的延迟不是很敏感,那么可以考虑NRAID和RAID-0 VDISK,只有在与OpenVOS的镜像一起使用时才可以。 选择这些RAID类型中的一种,可以为给定的容量点使用最少数量的物理磁盘驱动器,虽然,换来的是降低的可用性。 考虑到这些限制和对可用性的影响,Stratus ,不建议使用这些RAID类型。
如果您无法决定是选择基于奇偶校验的RAID类型还是镜像RAID类型,那么谨慎的选择是使用镜像RAID类型之一,因为它们将在大多数应用中提供最佳的性能和可用性特征。
3.0 将VDISK分区为LUNs
在VDISK被OpenVOS使用之前,必须先将其分割成一个或多个LUN。每个LUN被分配给一个特定的VOS成员盘。 一个或多个成员盘合并成一个OpenVOS逻辑盘。
虽然 ftScalable 存储阵列支持将一个 VDISK 分区为多个 LUN,但这会带来显著的性能惩罚,影响该 VDISK 上所有 LUN 的 I/O 吞吐量和延迟。因此,Stratus ,不建议为客户数据在每个VDISK上使用多个LUN的配置。
在运行多 LUN VDISK 配置时,有几个原因会导致性能下降,但最基本的原因是磁盘争用和磁头搜索。每次ftScalable存储阵列必须满足对多LUN VDISK配置中的一个LUN的I/O请求时,它必须寻找物理磁盘驱动器磁头。组成 VDISK 的 LUN 越多,磁头移动越多。磁头移动越多,随着磁盘争夺的增加,延迟就越大。请记住,所有的I/O最终都必须由组成VDISK的物理磁盘驱动器来处理,阵列的缓存存储器无法替代这种物理I/O。
Stratus 已经运行了基准测试,证明4-LUN VDISK的总I/O吞吐量大约是配置为单LUN的相同VDISK吞吐量的一半,而平均延迟可以超过4倍。
图1和图2显示了每个VDISK使用多个LUN对性能的影响。 这些图表显示了在使用配置有一个、两个或三个LUN的4驱动器RAID-5 VDISK时,每秒写入I/Os (IOPS)和最大延迟(毫秒)的总和。
注:这些图表是基于Stratus 内部实验室在受控条件下的测试结果。您的实际结果可能会有所不同。
图1和图2。 每个VDISK的多个LUN的性能影响
4.0 将OpenVOS逻辑磁盘分配给LUNs
最简单的方法是将OpenVOS逻辑磁盘内的每个成员磁盘分配给一个LUN。如果你需要一个比单个LUN更大的VOS逻辑磁盘,或者你想获得条带化的性能优势,你可以创建一个VOS多成员逻辑磁盘,其中每个成员磁盘都是一个LUN。
图1显示了ftScalable Storage阵列上物理磁盘驱动器、VDISK和LUN与OpenVOS逻辑磁盘之间的关系。 这是一个简单的OpenVOS逻辑磁盘的例子,由两个成员磁盘组成,其中每个成员磁盘是一个单一的RAID1 VDISK / LUN在ftScalable Storage阵列上。
5.0 OpenVOS多成员逻辑磁盘与ftScalable RAID-10 VDISK的比较
现在有多种方法可以在OpenVOS中实现条带化。在ftScalable Storage发布之前,唯一可用的方法是使用多个物理磁盘驱动器配置为VOS多成员逻辑磁盘。随着ftScalable Storage的出现,您可以创建RAID-10 VDISK,由阵列处理所有的条带化,甚至可以结合两种方法,将多个LUN(每个LUN都是一个VDISK)组合成一个VOS多成员逻辑磁盘。
如果你想使用条带化,Stratus ,建议你使用非条带化的RAID类型VDISK(例如RAID-1或RAID-5),每个VDISK只有一个LUN,并将它们组合成VOS多成员逻辑磁盘。 这样,OpenVOS就可以为每个LUN维护一个单独的磁盘队列,最大限度地提高吞吐量,同时将延迟降到最低。 尽管如此,请查阅第6.0节"OpenVOS队列深度和ftScalable存储",了解关于分配的LUN数量和潜在性能影响的一些注意事项。
6.0 OpenVOS 队列深度和 ftScalable 存储器
所有存储阵列、物理磁盘驱动器、光纤通道HBA和现代操作系统都有不同大小的I/O请求队列。 队列深度基本上定义了特定设备在任何给定时间内可以待处理(排队)的唯一I/O请求的数量。
当设备变得非常繁忙,无法在队列中添加任何额外的I/O请求时,就会出现队列满的情况。当队列满的情况存在时,新的I/O请求会被中止,并重新尝试,直到队列上再次有空间。这将导致I/O延迟增加,应用程序响应时间增加,I/O吞吐量降低。
OpenVOS为每个LUN维护一个单独的队列,默认队列深度为12。ftScalable Storage阵列上的每个主机(光纤通道)端口都有一个深度为128的单一队列。
在具有大量 LUN 的 OpenVOS 配置中,有可能用相对较少的非常繁忙的 LUN 填充 ftScalable 存储阵列上的主机端口队列。 这将导致其他 LUN 的 I/O 请求收到队列满状态,从而延迟它们和您的应用程序。 您应该仔细平衡配置中使用的LUN数量,必要时请咨询Stratus ,根据需要调整OpenVOS队列深度设置。
7.0 将文件分配给VOS逻辑磁盘
在可能的情况下,将随机访问的文件和顺序访问的文件分配到不同的逻辑磁盘上。在同一逻辑磁盘上混合使用两种类型的文件访问方法会增加访问随机访问文件所需的最坏情况时间(最大延迟),并降低顺序访问文件的最大可能吞吐量。此外,请记住,您可以为每个逻辑磁盘使用不同的RAID类型,以最佳匹配I/O访问类型。
8.0 在存储控制器之间平衡 VDISK
ftScalable存储阵列采用主动-主动存储控制器设计,两个控制器主动处理I/O。然而,每个 VDISK 在分配时都会被分配到一个特定的存储控制器;控制器A或控制器B.特定 VDISK 的所有 I/O 都由分配的存储控制器处理。如果您没有指定要分配给特定 VDISK 的控制器,ftScalable Storage 阵列会以循环往复的方式,在两个控制器之间交替分配。
虽然这可能会平衡两个存储控制器之间的VDISK数量,但它可能无法确保I/O工作负载被平均分配。 例如,假设你的配置中有6个VDISK,称为VDISK1到VDISK6。 VDISK1和VDISK3处理您所有的主要在线数据,都是非常的I/O密集型,而其余的VDISK则处理离线归档数据,忙得多。
如果您没有明确地将 VDISK 分配给控制器,您将最终将 VDISK1、VDISK3 和 VDISK5 分配给控制器 A,而 VDISK2、VDISK4 和 VDISK6 将在控制器 B 上。 这将导致两个存储控制器之间的 I/O 负载不平衡。
您在分配 VDISK 时应考虑估计的 I/O 工作负载,必要时可在创建 VDISK 过程中手动将特定 VDISK 分配给控制器。 如果您发现您的工作负载发生变化或您的 I/O 分配不平衡,您可以将现有的 VDISK 重新分配到新的存储控制器。
注意:更改 VDISK 的控制器所有权是一种破坏性操作,在 VDISK 在两个控制器之间移动和重新分配 LUN 号码时,不可能不暂时影响对数据的访问。不能对在线 OpenVOS 逻辑磁盘进行此操作。在进行此操作之前,请咨询Stratus 以获得帮助。
9.0 单个VDISK配置
虽然可以在 ftScalable 存储阵列上创建单个大型 VDISK,但应避免这样做,因为这样做会影响性能,而且Stratus 不建议这样做。
如前所述,每个ftScalable Storage阵列内有两个存储控制器,以主动-主动模式运行。 每个 VDISK 都被分配给一个特定的存储控制器,该控制器拥有并执行该 VDISK 的所有 I/O 处理。 在单个 VDISK 配置中,您将使 ftScalable Storage 阵列的总可用性能减半,因为您将只有两个存储控制器中的一个处理所有 I/O 请求。
在OpenVOS配置中,每个LUN都有一个单独的I/O磁盘请求队列。 通过仅有一个VDISK,您可以最大限度地降低OpenVOS向ftScalable存储阵列发送并行I/O请求的能力,再次降低您的整体I/O吞吐量和延迟。
10.0 VDISK/LUN尺寸对OpenVOS的影响
10.1 原始能力与可用能力
OpenVOS操作系统利用元数据来确保磁盘数据的最高程度的数据完整性。这种元数据作为独立于数据本身的物理扇区存储。因此,OpenVOS使用九个物理扇区来存储每八个扇区的可用数据。
当配置 ftScalable VDISK 和 LUN 时,请记住,提交给 OpenVOS 的大小代表粗略的容量,并不反映元数据开销。 您的可用容量大约是 VDISK / LUN 原始物理大小的 8/9 (88%)。此外,OpenVOS还保留了大约1.1GB的空间用于分区过听。
OpenVOS通常利用LUN上的存储,将其四舍五入到最接近的5GB边界。 这允许大小稍有不同的LUNS结成伙伴。 这种四舍五入的唯一例外是与某些传统OpenVOS磁盘类型的大小完全匹配的LUN(例如,D913或D914)。
10.2 OpenVOS磁盘段、LUN大小和LUN数量
OpenVOS每个VOS模块最多拥有254个可寻址磁盘段,其中每个磁盘段可以寻址大约34GB的存储空间。 这样一来,OpenVOS上的双工可寻址存储容量最大约为8.6TB(太字节)。 每个OpenVOS逻辑磁盘至少消耗一个磁盘段。
在分配您的VDISK / LUN大小和数量时,需要考虑这两个限制。 由于每个逻辑磁盘至少需要一个区段,因此使用许多小的VDISK / LUN会大大降低OpenVOS系统上可配置的整体最大存储容量。 为了进一步最大限度地提高OpenVOS系统上的可配置存储量,请以34GB可用(38.6GB原始)大小的整数倍创建LUN,以最大限度地减少特定逻辑磁盘所需的磁盘段数。
10.3 POSIX对逻辑磁盘大小的限制
磁盘成员的数量和VOS逻辑磁盘的总大小决定了POSIX应用程序使用的生成inode号的大小。 在当前的VOS版本中,该值被限制为32位,允许逻辑磁盘大小约为545GB。 如果超过了这个限制,VOS initialize_disk命令会产生一个警告,这可能会给你现有的POSIX应用程序带来兼容性问题。
如果你的所有访问逻辑磁盘的POSIX应用程序都已经在OpenVOS 17.1上重新编译,并定义了预处理器符号_VOS_LARGE_INODE,并且用支持32位和64位inode号的OpenVOS 17.1 POSIX运行时例程进行了重新编译,那么就没有问题。 在OpenVOS 17.1版本及以后的版本中,该磁盘的警告信息可能会被忽略和/或使用initialize_disk命令中添加的-no_check_legacy_inodes选项抑制。
请参考文件《软件发布公告》。OpenVOS Release 17.1 (R622-01) 和 OpenVOS System Administration: 磁盘和磁带管理(R284-12)以获取更多信息。
11.0 物理磁盘驱动器的插入和移除。对I/O性能的影响
ftScalable Storage 阵列支持在线插入和移除物理磁盘驱动器,而无需关闭阵列电源或停止主机和/或应用程序。 在插入或移除一个或多个驱动器后,ftScalable Storage 阵列必须经过重新映射底层物理磁盘拓扑的过程,以确定是否有任何重新定位、移除或新插入的物理磁盘驱动器。 这称为"重新扫描"。
这些重新扫描由 ftScalable 存储阵列自动完成,无需任何手动操作命令。 当此重新扫描过程发生时,任何悬而未决的 I/O 请求可能会被暂时延迟,直到它完成。
在第一代ftScalable存储阵列中,插入一个驱动器可能会导致多个I/O延迟,在大约40秒的时间内,延迟时间为4至7秒。移除驱动器通常会导致两次I/O延迟,在大约15秒的时间内,延迟时间在3至11秒之间。
通过最新一代的ftScalable Storage G2阵列,现在插入或移除硬盘造成的I/O延迟为3秒或更少。
注意:这些结果来自Stratus 内部实验室在受控条件下使用最新 FW 版本和最大物理磁盘配置(第一代 ftScalable Storage 阵列每个阵列有 3 个机柜,36 个驱动器,或 ftScalable Storage G2 阵列有 72 个驱动器)进行的测试。您的实际结果可能会根据您的具体配置和工作负载而有所不同。
有几个建议可以最大限度地减少重新扫描处理期间发生的I/O延迟对您的延迟敏感型应用程序的影响。
- 将至少一个物理磁盘驱动器配置为备用驱动器,并使用容错RAID类型VDISK。 通过分配备用驱动器并使用容错RAID类型,ftScalable存储阵列可以自动从VDISK中移除边缘或故障物理磁盘,并启动恢复过程,而不需要插入或移除任何驱动器,避免重新扫描。 您可以在不太关键的时期更换故障硬盘。
- 如果使用非容错RAID类型的VDISK(RAID-0, NRAID),SRA建议创建一个额外的VDISK作为备用盘。 您可以使用这个备用的VDISK作为替代的成员盘,并使用OpenVOS镜像重新双工来提供冗余。 这样您就可以在不太关键的时期替换故障硬盘。
- 服务操作后,请勿移动物理驱动器以保留特定机柜插槽位置。ftScalable Storage 阵列设计不要求 VDISK 的物理驱动器保持与分配时相同的机柜插槽位置。
- 在收到替换驱动器并准备同时安装之前,不要物理移除边缘或故障的磁盘驱动器。通过协调物理驱动器的移除和插入,您可以最大限度地减少重新扫描过程的次数,因为在一个重新扫描过程中可能会发生多个驱动器拓扑结构变化。
概要
OpenVOS操作系统与ftScalable存储阵列的结合为您提供了一个强大的、可扩展的和灵活的存储环境,以托管您最关键的应用程序。通过了解各种RAID类型、LUN拓扑和可用配置选择的优点和缺点,您可以创建一个最佳的存储布局,以满足您的业务、性能和可用性需求。