VSA 5.1 棕地部署 Video

VSA-Video.png几周前,我写了一系列有关 的VMware vSphere 存储 博客 关于注意事项 成功部署vSphere 存储 Appliance(VSA)5.1 到现有的vSphere基础架构上,通常称为“棕地部署”.

由于此类部署的VSA 5.1要求非常严格且非常具体,因此我想做的不只是编写一些深入的文章,还决定创建有关该过程的视频。我收到了许多有关此主题的客户问题,并且我相信博客文章是有帮助的并且相当成功,但是我’我是游行示威的忠实拥护者,这些游行示威说明了需要做的事情。

因此,这里有解决如何以最少的停机时间或零停机时间成功执行VSA Brownfield部署的问题。该视频由VMware全球支持服务(GSS)知识管理小组的多媒体专家Graham Daly制作和配音。格雷厄姆在视频制作和添加令人安慰的声音方面做了大量工作(大声笑,我真的很不好意思)

该视频现在是 有线电视 所有人都可以在VMware Support Insider博客上访问, 有线电视 YouTube频道,当然在这里。

– Enjoy

有关将来的更新,请确保在Twitter上关注我,网址为:  @PunchingClouds

vSphere 存储 Appliance的DRS关联性规则

VSA徽标 基于最近有关在vSphere 存储 Appliance(VSA)5.1环境中使用DRS Affinity规则的客户询问,我希望与大家分享我基于此主题的回答。了解vSphere功能的功能功能以及它们如何与不同的解决方案集成VMware提供的功能’重要,因此我’ve决定与社区其他成员分享这一点。这个问题是基于一个真实的客户场景,并且相当长,只要它涉及其他VMware产品。一世’将该问题浓缩为以下主要问题:

“是否需要创建DRS关联性规则以将vSphere 存储 Appliance固定到VSA群集中的每个主机,以防止DRS将设备迁移到其他ESXi主机?”

我相信这是一个有效的关注点,也是一个很大的问题,因为客户清楚地了解了DRS旨在解决的业务问题,这基本上是为了缓解启用DRS的群集中工作负载之间的争用。这个问题的答案是“No”, you don’需要创建DRS关联性规则以防止DRS将vSphere 存储 Appliance VM从一台ESXi主机迁移到另一台ESXi主机,这是为什么:

vSphere 存储 Appliance解决方案将本地存储(VMFS卷)显示为VSA群集成员之间的共享资源。 vSphere 存储 Appliance架构旨在支持两个和三个ESXi节点群集。 VSA安装程序/管理器将为每个主机部署一个VSA设备,以使用提供给每个ESXi主机的本地存储(VMFS卷)并将其作为共享资源(称为VSA存储群集)呈现。部署后,每个vSphere 存储 Appliance将控制存储卷,存储演示,同步,复制等。

逻辑vSphere 存储 Appliance& Resources

逻辑VSA资源

通过列出所有这些事实和功能我’试图说明每个vSphere 存储 Appliance与托管它们的ESXi主机和本地存储(VMFS卷)具有一对一的关系。如果您考虑一下,这是因为vSphere 存储 Appliance VM存储在ESXi本地存储(VMFS卷)上,但从某种意义上说,它们还控制着什么不是共享卷。那里的权利大声呼喊了正常的vMotion违规行为,与此同时,也引发了DRS违规事件。在正常情况下,DRS无法将VM迁移到群集的其他ESXi成员,更不用说将vSphere 存储 Appliance VM迁移到另一个VSA群集成员了。

此行为是设计使然包含在产品中的行为,除了事实之外,无论是否在VSA群集中启用了DRS,都可以通过编程方式阻止vSphere 存储 Appliance VM进行vMotion。可以通过查看vSphere Web Client和vSphere Client(C#)用户界面上的vSphere 存储 Appliance VM可用的选项进行验证,如下所示。

vSphere Web Client用户界面

vSphere Web Client用户界面

 vSphere Client(C#)用户界面

vSphere C Client

 这是使用vSphere Web Client时可能发生的行为。 vSphere Web Client的加载和响应时间’s slower than it’可能是以前的版本,有时加载所有功能和设置可能需要更长的时间,结果是Migrate选项可能可用并且菜单上没有显示为灰色,因此可以选择迁移vSphere 存储 Appliance VM。虽然这是可能的,但将不会执行迁移。再次基于我之前提到的事实“通过编程防止vSphere 存储 Appliances VM被vMotion和迁移。

在这种情况下尝试迁移的结果是“migrate…”错误将生成,如下图所示。仅使用vSphere Web Client会遇到此行为。

vSphere Web Client迁移程序消息

VMotion迁移消息

 我希望此信息对所有vSphere 存储 Appliance用户和客户有用。

– Enjoy

有关将来的更新,请确保在Twitter上关注我,网址为:  @PunchingClouds

虚拟局域网–支持的业务用例场景

VXLAN的发布和支持引起了社区的极大关注。作为最早提供有关VXLAN实现示例的内容的人之一,我’客户和同事对VXLAN体系结构设计和用例提出了疑问。在大多数情况下,我看到有很多听众并不真正了解VXLAN的物流,因为它与vSphere和vCloud基础架构支持的实施方案有关。知识鸿沟并不完全围绕VXLAN技术的价值,而是更多围绕架构和使用案例,这些知识在今天可以成功使用。

根据我最近的经验,每当连接多个数据中心(其中每个站点具有单独的vSphere / vCloud Infrastructure)时,使用VXLAN就成为了讨论的话题。我可以看到有些人被误导认为VXLAN是解决问题的答案,因为他们现在可以利用VXLAN将多个vCenter Server和vCloud Director基础架构连接在一起。好吧,事实是,普通的简单VXLAN不能用作当今连接多个vCenter Server和vCloud Director环境的技术。

现实情况是,当前版本的VXLAN不支持将多个vSphere或vCloud基础架构连接在一起的方法。考虑到平台架构和组件,基于vSphere和vCloud的基础架构都具有大量依赖关系和移动部分,这使得以当今使之成为可能的方式进行集成非常困难。据我了解,这是所有参与VXLAN技术开发的合作伙伴都希望尽快解决的问题。

我发现很多人阅读并用作vCloud Director指导的出版物之一是vCloud Architecture Toolkit(vCAT)。作为vCAT实施示例的一部分,我们包括了两个VXLAN场景,其中一个是围绕灾难恢复的,而基于这个话题,我’ve注意到,有些人忽略或错过了作为该示例一部分讨论和说明的信息中的关键部分。

作为vCloud Architecture Toolkit(vCAT)的贡献者之一,我必须提出并捍卫人们围绕vCAT主题中的VXLAN实现示例收集的一些误解。 VXLAN灾难恢复示例方案基于扩展集群方案,而不是两个单独的基础架构。位于两个不同位置的两个物理数据中心,其中一个逻辑数据中心(vSphere / vCloud)跨越两个物理数据中心。

阅读更多…

在vMA设备上安装VSA群集服务

VSA群集服务最近我’一直在vSphere 存储 Appliance上撰写和发布一系列文章。  的VMware 存储 博客。由于此解决方案支持多个VSA群集的集中式和非集中式管理,因此对此颇有兴趣。 VSA 5.1的新功能之一是,它使您可以从单个vCenter Server实例集中管理多个两个或三个节点群集。一世’我们已经在VMware 存储 博客中详细介绍了ROBO的VSA集中管理主题,因此,我建议阅读这些文章以加快其发展速度。

将VSA用于ROBO的一大主题是正确使用和部署VSA群集服务(VSACS)。它’重要的是要知道,将基于两个群集的所有方案都需要部署VSACS。此解决方案的要求要求VSACS驻留在VSA群集提供的资源之外,以避免VSA群集服务中断。可用于部署VSACS的选项包括使用虚拟机,现有的共享物理系统或满足应用程序要求的廉价硬件设备。

因此,为了简化实施甚至可能降低围绕两节点VSA群集方案的管理和实施的成本,可以考虑使用vMA设备。我下雪的vMA设备建立在VSACS支持的Linux发行版(SLES)之上,它为该解决方案带来了以下好处:

  • 预先配置并支持操作系统
  • 免费的
  • 占地面积小
为了将VSA群集服务位安装到vMA设备上,有一个称为(gettext)的必需工具,该工具不属于vMA默认安装,在安装VSACS之前必须先安装该工具。我将提供有关如何完成此操作的分步过程。我所有的东西’我们从VMware的一位同事William Lam(@lamw)了解到有关修改和自定义vMA设备的信息。如果您想了解有关使用vMA设备的更多信息,请查看他的博客,特别是一篇名为 vMA 5的提示和技巧.
X