vsan-sc-logo随着vSphere 6 Update 1和6.1的发布,VMware正在扩展作为平台的功能,并引入了更高级别的企业可用性和解决方案的数据保护。

6.1引入了新功能扩展集群。延伸集群为客户提供了跨多个数据中心部署单个集群的能力。

虚拟SAN 的一些关键方面重新集中于缓解操作中断,以确保数据永不丢失,在Virtual SAN 6.1扩展集群中,即使在站点完全故障的情况下,也能确保操作不会中断,从而进一步完善了这一概念。

延伸群集是在避免灾难/停机是关键要求的环境中实施的特定配置。

虚拟SAN 扩展群集功能基于在创建传统Virtual SAN群集时应用的相同架构概念构建,并且成功建立Virtual SAN群集至少需要三个故障域。

有关故障域的背景知识。在Virtual SAN 5.5中,故障域的概念是在主机级别实现的。虚拟机对象可以分布在群集内的多个主机之间(最少三个主机),并且在单个硬件设备发生事件时应保持可访问性,否则会发生主机故障。

vsan-host-fd在6.0版本中,我们扩展了故障域的概念,并引入了一个称为故障域的可配置功能。

故障域功能基本上在Virtual SAN 6.0中引入了机架识别功能。该功能允许客户将多个主机划分为多个服务器机架中的故障区域,以确保虚拟机对象的副本未配置到相同的逻辑故障区域或服务器机架中。在此类似于主机配置,至少需要三个故障区域或服务器机架。

在这种情况下,虚拟机组件可以通过多个主机分配到多个机架上,并且如果发生机架故障事件,则不在服务器机架故障所在的主机上托管的虚拟机将继续可用。但是通常期望将机架托管在同一数据中心中,并且如果发生数据中心范围的故障事件,则故障域将无法协助虚拟机可用性。

vsan-rack-fd

虚拟SAN 扩展集群基于故障域构建,其中三个必需的故障区域基于三个站点(两个活动站点-活动站点和见证站点)。见证站点是一个独特的概念,因为此站点仅用于托管见证虚拟设备,该虚拟设备存储见证对象和群集元数据信息,并在发生故障事件时提供群集仲裁服务。

vsan-site-fd

见证虚拟设备是嵌套的ESXi主机,其设计目的仅是提供上述服务。设备不向群集贡献计算资源或存储资源,并且不能承载虚拟机。见证虚拟设备是专用于Virtual SAN扩展群集和Virtual SAN ROBO版本的解决方案。在Virtual SAN延伸群集中,由于仅支持三个故障域,因此最大支持的``FailuresToTolerate''为1。

转到解决方案的支持距离,站点之间的距离主要由解决方案的网络延迟要求决定。在大多数情况下,Virtual SAN扩展群集的配置取决于高带宽和低延迟链路。下面说明并列出了网络带宽和延迟要求:

vsan-sc-site-objs

 

活动站点之间的网络要求(数据故障域)

  • 10 Gbps或更高的连接
  • <5毫秒延迟的RTT
  • 第2层或第3层网络连接与组播

从活动站点到活动站点(数据故障域)到见证站点的网络要求

  • 100 Mbps连接
  • 100毫秒延迟(200ms RTT)
  • 没有组播的第3层网络连接

尽管最小网络连接和带宽要求为10 Gbps,但可能需要更高的带宽,具体取决于环境的大小和每个站点上托管的虚拟机的数量。可以根据虚拟机的数量以及活动站点与活动站点之间的写入操作来计算网络带宽要求。对于支持特定环境的大小所需的带宽,此方法应产生准确的结果。

例如,如果一个环境由每个站点(5 + 5 + 1)的五个节点以及大约300个虚拟机组成,则正常操作需要大约4Gbps(每个方向大约2Gbps)。这留下了备用带宽,可在发生故障情况时使用。以下公式可用于计算Virtual SAN扩展群集的带宽要求:N(节点数)* W(每个节点4K IOPS数量)* 125 Kbps。

虚拟SAN (Virtual SAN 网络 )的网络通信可以在第3层以及传统上建议的扩展第2层域上完全实现。在第3层实施中,虚拟机网络将需要作为独立的第2层网络进行管理,并在两个活动网络之间使用某种第三方覆盖解决方案–活动站点。使用诸如OTV,MPLS或VPLS之类的解决方案来满足必要的要求。如果可能的话,我更愿意使用VMware NSX满足此要求,因为它是针对此类场景的可扩展解决方案,并且也是对软件定义的数据中心的有机补充。一世’在以后的文章中将提供有关Virtual SAN和NSX配置语义的更多信息和详细信息。

vsan-net-deploy-支持

借助扩展集群,Virtual SAN现在利用一种算法来实现每个站点的读取位置。读取操作是从虚拟机正在运行的同一站点(本地)上的数据副本进行的。如果将虚拟机迁移到另一个站点,则将从第二个站点上的数据副本中进行读取操作。仅当写入操作没有位置时,才将这种独特的行为专门应用于读取操作。

虚拟SAN 延伸群集的配置详细信息遵循Virtual SAN的相同简化管理和配置原则。整个配置需要执行几个步骤,其中95%的配置是通过vSphere Web Client UI(仅)中的向导执行的。

完成必要的和传统的Virtual SAN群集配置要求后,例如为所有站点(必需的具有组播网络连接的L3和L2)准备网络,在vSphere Cluster中启用Virtual SAN,并声明本地连接的设备继续进行以下配置:延伸群集。配置虚拟SAN延伸群集的步骤如下图所示:

vsan-sc配置步骤

以典型的Virtual SAN方式,上面说明的工作流程中的所有配置步骤都是从简化的向导执行的,该向导需要几分钟才能完成。一旦完成了扩展集群的创建,就需要执行一些配置步骤,以便从管理和部署站点的角度控制虚拟机的行为。

  • 创建主机组 –用于定义与每个站点(首选站点和辅助站点)的定义有关的位置。
  • 创建虚拟机主机组 –用于根据各自的特征(站点或应用程序堆栈)对虚拟机进行分组。
  • 创建虚拟机/主机规则 –用于关联和定义要运行虚拟机的主机组
  • 设置高可用性规则设置 –用于在站点完全失败的情况下定义vSphere HA行为。设置为vSphere HA应遵守VM /主机关联性规则。

注意: 在配置拉伸群集之前,以及在群集上启用Virtual SAN之后,应正确启用和配置vSphere DRS和vSphere HA,以使拉伸群集及其配置按预期运行。

的vSphere HA建议的配置设置:

  • 从HA的角度来看,确保为每个站点保留并保证足够的资源量。使用准入控制通过定义集群故障转移容量的百分比来定义故障转移容量。 将CPU和内存设置为50%.
  • 启用隔离响应并将主机隔离响应配置为 关闭并重启虚拟机
  • 利用vSphere HA高级配置选项,并使用高级HA配置语法为每个站点手动指定多个隔离地址:
    •  das.isolationaddressX
  • 通过使用以下方法阻止vSphere HA使用默认网关
    • das.useDefaultIsolationAddress =假
  • 更改vSphere HA的默认设置并将其配置为 在故障转移期间遵守VM与主机的关联性规则。

的vSphere DRS推荐的配置设置:

  • 使vSphere DRS成为全自动选项–DRS只会将虚拟机迁移到属于其各自VM /主机组的主机
  • 使用vSphere DRS 应该规则 并避免使用 必须规则。 的vSphere  6.0能够支持和尊重DRS 应该 规则 .

虚拟SAN 延伸群集的外观,感觉和管理方式与传统Virtual SAN群集相同。从行政角度看’两者之间有很大的不同,这再次证明vSphere管理员可以利用其现有技能来管理该新解决方案。

vsan-sc-web-client

关于“延伸群集”主题和有史以来最强大的存储平台,还有很多其他内容。

- 请享用

有关Virtual SAN(VSAN),vSphere虚拟卷(VVol)和其他存储和可用性技术以及vSphere Integrated OpenStack的 (VIO)和Cloud-Native Apps(CNA)的将来更新,请确保在Twitter上关注我:@冲云

X