自动部署无状态缓存配置
vSphere 5.0中的Auto Deploy最初发行版侧重于并且仅限于无状态预配用例。现在,vSphere 5.1中的Auto Deploy已更新,以支持有状态和增强的无状态配置版本,称为无状态缓存。
Auto Deploy无状态置备允许无盘主机通过PXE引导过程下载映像来自动安装和配置ESXi。安装’的唯一配置项将在构建过程中应用,但是’由主机配置文件处理。 ESXi映像及其’然后将配置保存在本地RAM中。该解决方案最初提出了一些与解决方案的整体可用性有关的问题。任何依赖于Auto Deploy的服务(例如TFTP,PXE,DHCP)的故障都会使解决方案面临风险,因为新主机或重新引导的主机都将无法下载其各自的映像。尽管这些是有效的关注点,但可以通过专注于减轻这些风险的正确体系结构设计和实现来解决它们。它’可以肯定地说,Auto Deploy的初始版本存在一些限制,但是新版本在这些方面提供了许多改进。
在vSphere 5.1中,两个新的配置选项已添加到自动部署,无状态缓存和有状态安装。 无状态缓存的工作原理与vSphere的先前版本和当前版本中的“无状态”部署选项非常相似,但是它通过新功能解决了可用性方面的问题。无状态缓存引入了将ESXi映像保存(缓存)到分配的存储设备(本地磁盘,SAN,USB)的功能。现在,如果需要采购存储介质,此选项可能会对任何环境的总体成本和初始可管理性产生影响。所有主机启动过程都需要配置有特定的启动顺序,并且在支持的存储介质设备上至少具有1 GB的存储容量。 Auto Deploy无状态兑现的启动顺序应按以下顺序设置:
- 网络启动设备优先
- 硬盘驱动器或可移动设备(USB)
无状态缓存启动顺序
现在如何运作?以及如何以及何时缓存图像?
在完成下载和配置并在本地RAM中运行之后,将对ESXi映像进行缓存,然后将映像复制到本地存储设备。如果任何依赖于Auto Deploy的服务失败或无法用于映像下载,此过程将充当主机的故障回复机制。必须在“主机配置文件”设置中定义“自动部署无状态缓存”配置。下图说明了主机配置文件的高级配置设置下可用于无状态缓存的选项。
主机配置文件无状态缓存设置
在正常操作下,主机将在无状态模式下运行,但是如果服务或组件出现故障,则引导过程将故障回复至兑现给存储设备的引导映像。的 第一个磁盘的参数 和 检查以覆盖所选磁盘上的VMFS卷 功能选项仅比USB等存储设备中选择可用。无法在USB存储介质中创建VMFS卷。
尽管无状态缓存解决了有关无状态配置的一些可用性问题,但重要的是要了解,在主机已配置无状态缓存的情况下,它不能保证主机将能够正常运行并能够与vCenter Server和其他系统联系。无状态缓存的主要好处之一是可以使主机联机,以方便进行故障排除并帮助解决阻止PXE成功启动的问题。
目前,vSphere 5.1中的Auto Deploy仅可通过C#客户端(粗客户端)使用,我希望VMware很快会为新的vSphere Web Client发布。AutoDeploy在vSphere 5.1中仍然是以PowerShell CLI为中心的工具。有一个适用于vSphere 5.0的技术预览版GUI插件,但该版本当前与vSphere 5.1不兼容,因此您可能需要保持PowerCLI技术的最新状态,直到该GUI可用。
I’我是Auto Deploy的忠实拥护者’它非常方便,并且在软件定义数据中心时代具有更大的相关性。
– Enjoy
VMworld 2012巴塞罗那
哦耶!!! Cinco cerbezas提供支持!失事人员(@DuncanYB @FrankDenneman @lamw @alanrenouf @VMwareStorage @PunchingClouds)再次回到人们的视线。我们都将在巴塞罗那参加VMworld 2012,并为您带来来自旧金山的VMworld 2012的前十大会议。
如果您没有避风港,请务必注册’还没有现在有几个很棒的主题,涵盖了新vCloud Suite的功能和架构更改。以下是在巴塞罗那必须参加的会议中的一些会议,但这些会议只是其中的一部分,因为还有很多很多其他的精彩会议。
VMworld 2012旧金山必须参加的十大会议:
VMworld 2012巴塞罗那必须参加会议:
- GD28–Frank Denneman的资源管理(DRS / SDRS)
- GD29–具有Duncan的Cloud Infrastructure Suite架构 埃平
- INF-BCO1159–架构和运行VMware vSphere Metro存储集群
- INF-STO1545–设计存储DRS数据存储群集
- GD24–使用Cormac Hogan的vSphere 存储最佳做法
- INF-STO1198–vSphere存储功能& Enhancements
- GD33–PowerCLI与Alan Renouf
- INF-VSP1252–vSphere 5.1的新增功能– ESXCLI & PowerCLI
- INF-VSP1329–PowerCLI最佳实践:回报!
- GD32–CLI / SDK / API和William Lam
快来加入我们,您也许还能赢得一份“吸烟和畅销书虚拟化书” ever published 的VMware vSphere 5.1集群深度学习(第1卷) 通过 坦率 和 邓肯, 一世’确保他们在会议上会有所收获。在那里见到一切,并注意寻找RUN DRS快闪族(@RUN_DRS)。
– Enjoy
vCloud Director资源分配模型白皮书
对于那些谁做了’没有机会参加在旧金山举行的VMworld 2012,错过了Frank Denneman,Chris Colotti和我本人在vCloud Director分配模型和vSphere资源调度方面的会议。’不用担心我们会被您覆盖。 弗兰克·丹尼曼 (@FrankDenneman),我提供了VMworld 2012会话INF-VSP1683 的VMware vSphere群集资源池最佳实践。在这里,我们讨论了在使用或架构固态云环境的基础时的各种设计注意事项。在这里,我们详细了解了与资源分配模型相关的资源池和功能的使用。交付的信息非常重要,因为vCloud Director分配模型的构建块基于vSphere资源池。本届会议被提名为VMworld之一’s 2012十佳课程。
关于该主题的另一个关键会议是由 克里斯·科洛蒂 (@ccolotti)和我本人,适用于VMware vCloud分配模型的OPS-CSM1167架构。在本次会议中,Chris和我讨论了vCloud Director的三种不同分配模型的详细信息,并解释了它们对vSphere资源调度的影响。我们讨论并演示了不同分配模型的用例示例以及如何使用它们。主要目标是基本上证明,通过对vSphere资源分配有深入的了解,可以简化vCloud分配模型的逻辑,理解和使用,并且更容易理解。
好…对于那些在VMworld 2012上错过并错过会议的不幸的人’不用担心我们会被您覆盖。 Some of the content that was the basis for the two presentations mentioned above was just published 的VMware vCloud Director资源分配模型。我有机会查看该文档,如果您在Twitter上关注我,您可能已经看到了关于它的推文,这与我大约两个月前发表该论文的方式是多么的离谱。弗兰克(Frank)和克里斯(Chris)在这篇论文上做得很好。内容和插图的交付方式将所有内容(从vSphere资源分配到vCloud Director分配模型)联系在一起,以及所有这些因素如何影响VMware HA。白皮书基于vCloud Director 1.5,但其所有内容和信息’仍与vCloud Director 5.1相关。
这是我建议所有vCloud Director架构师和vCloud Director管理员阅读并完全使用的文档。大起来!
– Enjoy
vCloud Director 5.1 VXLAN配置
新的vCloud Director 5.1提供了许多新功能和增强功能,特别是虚拟可扩展LAN(VXLAN)的引入和支持。 VXLAN是一项技术,可以使隔离的vCloud架构跨第2层域扩展,而不受IEEE 802.1Q标准强加的限制。通过利用新的MAC-in-UDP封装技术,VXLAN ID添加了24位标识符,该标识符允许网络将超出IEEE 802.1Q限制的数量推到可能的1600万个逻辑网络。下面的图1说明了VXLAN添加到以太网帧的更改。
图1:带有VXLAN封装的以太网帧
尽管传统的IEEE 802.1Q标准可以完美地发挥作用,但是当试图满足更高的可扩展性要求时,VXLAN可以提供多达1600万个可能的网络的可扩展功能,从而超越了IEEE 802.1Q的限制。由于VXLAN提供了可伸缩性和灵活性,因此对于大型可伸缩云(vCloud)网络,应考虑使用此技术。有关VXLAN的快速崩溃课程,请查看 邓肯·埃平’s 发布 “只需4分钟即可了解VXLAN及其价值支持…”
在vCloud Director 5.1中配置VXLAN要求在vCloud Director 5.1管理界面之外进行一些初始步骤,我想在此处进行说明。
首先有两个事实:
每当创建提供程序vDC时,都会在vCloud Director 5.1中自动创建VXLAN网络池。如果任何给定群集的主机都不准备首先使用VXLAN,则vCloud Director中的VXLAN网络池将显示错误。在从vCloud Director 5.1中创建新的Provider vDC之前,我建议您从网络以及软件依赖关系的角度确定使用VXLAN的所有先决条件。
为了准备资源集群(主机)以使用VXLAN,请登录vCloud 网络ing 和 Security设备(以前称为vShield Manager)。网络以及主机的准备工作需要识别和分配网段ID池和多播地址。以下是为vCloud Director 5.1准备和配置VXLAN所需的步骤。
步骤1:登录vCloud 网络ing 和 Security设备。选择数据中心。然后,选择屏幕右侧的“网络虚拟化”选项卡,然后单击“准备”超链接。这将显示“连接性和段ID”屏幕,如图2所示。
图2:网络虚拟化设置
步骤2:单击屏幕右端的Edit(编辑)按钮,然后输入vCloud 网络ing 和 Security设备将使用的必需的Segment ID池和多播地址。细分ID’不能直接映射到任何一个多播地址,因为一对一映射的可能性’不存在。此段ID和多播地址配置在范围中定义。图3说明了段ID和多播地址选项。
图3:段ID池和多播地址
步骤3:单击Network 虚拟化(网络虚拟化)选项卡中的Connectivity(连接)按钮,以准备资源群集(主机)成为带有vCloud Director的VXLAN的一部分。选择要与资源群集关联的分布式交换机,然后输入所需网段的VLAN ID,该网段将用于覆盖来自分布式交换机的VXLAN通信。图4说明了配置选项。
图4:资源集群
步骤4:指定适用于各自的分布式交换机配置的NIC分组策略,以及MTU设置。由于VXLAN ID封装技术增加了数据包的大小,因此VXLAN的MTU设置默认为1600字节。对于vCloud Director中的vCDNI的配置,此行为类似。 vCDNI要求MTU数据包的最低配置为1524。总的来说,这里要了解的重要一点是要求在所有网络设备上使用巨型帧。图5说明了可用的NIC分组策略以及默认的MTU设置,然后单击Finish。
图5:VXLAN属性
选择并完成分布式交换机的规范之后,将VXLAN vmkernel模块推入并启用到属于所选集群的所有主机上。在与VXLAN关联的分布式交换机上添加并自动创建了新的dvPort组和vmknic接口。可以通过唯一的命名约定vxw-vmknicPg-dvs-xx-xx-xx-xx-xx来标识新的dvPort组。图6提供了适配器配置的示例。
图6:VXLAN VMkernel接口
vmknics的自动网络配置过程的麻烦结果是,将基于DHCP自动为所有接口分配IP地址。此行为可能成为配置管理问题。除非该网段(通常是管理网络)上有DHCP服务器,否则所有新创建的接口都将接收169.254 / 16前缀内的IPv4地址,该地址对于与连接到同一物理链路的其他设备进行通信是有效的。
此配置将不起作用,因为IPv4本地地址不适合与未直接连接到同一物理或逻辑链路的设备进行通信,并且仅在没有稳定的可路由地址时使用。作为此配置的结果,主机准备的状态将显示为“Not ready”在vCloud 网络ing 和 Security设备界面中。图7说明了上面讨论的问题。
图7:vmknics IP地址状态
解决此问题的方法很简单:使用具有有效地址的自动分配的IP更新vmknics接口。这可以以手动或自动格式实现。图8说明了成功配置的结果。
图8:VXLAN成功的准备结果
步骤5:至此,所有必需的网络以及主机准备就绪,可以在vCloud Director 5.1中使用VXLAN。为了开始使用vCloud Director 5.1中的VXLAN功能,请创建一个提供程序vDC。 VXLAN池将自动创建。图9说明了vCloud Director的管理界面中存在支持VXLAN的网络池。
图9:vCloud Director 5.1中的VXLAN网络池
亲爱的,你在那里。现在,您可以继续进行组织和vApp网络的创建和配置,以利用vCloud Director 5.1基础架构中VXLAN提供的可伸缩功能。
请享用!