1. Hyper-V Unleasheden Windows Server 2008 R2 Pablo CamposIngeniero de Plataforma ArticLynxpacampos@alx.cl http://geeks.ms/blogs/pcampos Ppts basadas en la de David Cervigon
2. Agenda Introducción Repaso y Novedades de FailoverCluster en 2008 R2 Configuración y diseño de la red Configuración del Almacenamiento SAN Dimensionamiento y configuración fina
3. Windows Server 2008 R2 Hyper-V vs. Microsoft Hyper-V Server 2008 R2 Microsoft Hyper-V Server Hyper-V como role de Windows Server 2008 R2 Microsoft Hyper-V Server 2008 R2 (HVS) VM VM Parent Partition Hyper-V Windows hypervisor MISMAS FUNCIONALIDADES Hardware VM VM Windows (parent partition) Windows hypervisor Hardware Descargagratuitaqueincluye el hypervisor y todos los componentesnecesariosparavirtualizar (Windows Kernel, drivers, red, almacenamiento…) Disponiblecomo role en unainstalación “full” o “Server Core” de Windows Server 2008
4. Host ClusteringHA, Quick Migration, Live Migration, CSVs NIC3 - 192.168.100.2 NIC3 - 192.168.100.1 Red de HeartBeat NODO2 NODO1 Server Core Server Core NIC1 - 192.168.0.1 NIC1 - 192.168.0.2 Red Pública NIC2 - 10.10.10.1 NIC2 - 10.10.10.2 “Intranet” Red Virtual DC 192.168.0.100 Almacenamiento SAN 192.168.0.100
5. Alta Disponibilidad en entornos virtualizadosRepaso y novedades de FailoverCluster en 2008 R2
6. Requerimientos del Almacenamiento para Clustering en Windows Server 2008 Tipos de BUS compartido soportados: SAS Fibre Channel iSCSI Solo se soporta el almacenamiento que admita PersistentReservations (SCSI-3) No se soporta a parallel-SCSI
7. Nuevo modelo de Quorum Membresía al cluster basada en “Mayorías” Quien y qué tiene un voto es totalmente configurable Eliminación de puntos de fallo El diseño original asumía que el almacenamiento siempre estaría disponible Ahora el cluester puede sobrevivir a una perdida de conexión con los nodos Nuevo modelo de quorum Híbrido del antiguo MajorityNode Set (MNS) y Quorum basado en disco compartido Este nuevo modelo reemplaza a los dos anteriores
8. Mayoria de Nodos Solamente los nodos tienen voto Se requieren 3+ nodos, y no hay necesidad de tener almacenamiento compartido Se requiere la mayoría de los nodos para operar el Cluster Voto Voto Voto SAN
9. Mayoría de Disco y Nodos Mayoría de nodos con un” modelo de quorum basado en un “disco testigo” 3 votos en total, con dos necesarios para la mayoría El Cluster puede sobrevivir a la pérdida de cualquiera de los elementos con un voto Voto Voto Cada nodo tiene 1 voto SAN Voto El dispositivo del almacenamiento compartido tiene 1 voto
10. Mayoría de nodos y carpeta compartida Un File Share Witness (testigo) permite tener un Cluster de dos nodos sin disco compartido Excelente solución para Clusteres geográficamente dispersos Un servidor de ficheros puede usarse para albergar los testigos de múltiples clústeres Testigo Carpeta compartida en un servidor independiente Voto Voto Cada nodo tiene 1 voto SAN
11. Solo disco Solamente un disco compartido tiene voto Los nodos no tienen voto, por lo que el disco de Quorum es el master El Cluster estará vivo solamente si un nodo puede alcanzar el disco Mismo comportamiento que el tradicional modelo de Quorum Generalmente no recomendado SAN El dispositivo de almacenamiento compartido es el master Voto
12. Mejoras en la Validación Se puede correr antes, durante o después del despliegue del cluster Incluye comprobaciones adicionales de buenas prácticas Configuración del Quorum Estado de los recursos del cluster Configuración del Network Name en un clustermulti-site Ofrece una guía prescriptiva para lograr mayor disponibilidad Recoge información acerca de la configuración para documentación y soporte
13. PowerShell Línea de comandos, lenguaje de scripting e interfaz programática Gestión mejorada Corre la validación Crea clusteres y clusteriza roles Gestiona Hyper-V y CSV Genera informes de dependecias Server Core, Hyper-V Server 2008 R2, & Cliente RSAT Reemplaza a cluster.exe como herramienta CLI
14.
15. Acceso en modo solo lectura Acceso en solo lectura a la Cluster API Privilegios reducidos Ver el cluster Sin poder llevar a cabo acciones Minimiza el riesgo Seguridad mejorada Útil para la primera capa de soporte, colaboración entre equipos, administración e investigación Soportado por Powershell
16. Quick Migration vs. Live Migration Live Migration (Windows Server 2008 R2Hyper-V) Estado de la VM y Transferencia de la Memoria Crea la VM en el destino Mueve páginas de memoria desde el origen al destino via Ethernet de manera iterativa Transferencia final del estado y restauración de la VM Pausa la máquina virtual Mueve el almacenamiento desde el origen al destino Continua la ejecución Quick Migration (Windows Server 2008 Hyper-V) Salva el estado de ejecución Crea la VM en el destino Escribe la memoria de la VM en el almacenamiento compartido Mueve la VM Mueve la conectividad del almacenamiento del host origen al host destino Restaura el estado y continua la ejecución Lee la memoria de la VM del almacenamiento compartido y la restaura en el host destino Continua la ejecución Host 2 Host 1 Host 1 Host 2
17. Operación de Live Migration Memoria Configuration Configuration State State Server 1 Server 2
18. Cluster Shared Volumes Todos los servidores del cluster tienen acceso simultáneo a las mismas LUN del almacenamiento Utiliza NTFS, elimina los problemas de letras de unidad, mismas herramientas, sin modificaciones en la SAN…
19. Modo mantenimiento SCVMM Aplica a host stand-alone y clusters Dos opciones Save-state (no migra) Live Migration de todas las VMs en alta disponibilidad y save-state de las que no Cuando un Host esta en mantenimiento: No se monitoriza No se pueden crear VMs No se pueden mover VMs al host Puede reconfigurarse o eliminarse el host Se pueden arrancar y parar sus VMs Se pueden mover VMs hacia fuera del host Cuando termina el modo mantenimiento Se refresca el estado del host y puede volver a albergar VMs No se reinician ni se mueven VMs de vuelta
20. Escenarios de uso del modo mantención Habilitar modo de mantención El servicio queda Fuera de Linea en el Host Shared Storage
23. Hyper-V Networking Máquina Virtual NIC Sintética NIC Legacy (Intel 21140) 12 NICs por VM 8 sintéticas 4 legacy Hasta 10Gb/s Soporta VLANs Partición Padre Redes Virtuales enlazadas a NICs físicas Externas – Limitadas por el número de NICs Internas – Ilimitadas Privadas – Ilimitadas Solo NICs Ethernet (no Wireless) Soporta VLANs Trunking (VTP Protocol) NIC enlazada a Hyper-V NIC dedicada (Gestión)
24. Switches virtuales – Switches físicos VM1 VM2 VLAN2 VLAN1 VMBUS Los puertos del Switch Virtual son troncales Virtual Switch Tarjeta física del Host VLAN2 VLAN1 Trunk Port Physical Network Switch
25. Cómo repartir las NICs Mínimo 2, máximo… y mejor Gigabit 2 NICs NIC1: HeartBeat + LiveMigration NIC2: Gestión + vSwitch 3 NICs NIC1: HeartBeat + LiveMigration NIC2: Gestión NIC3: vSwitch 4 NICs NIC1: HeartBeat + LiveMigration NIC2: Gestión NIC3: vSwitch1 NIC4: vSwitch2 Si se va a utilizar iSCSI es conveniente dedicar una o dos (MultiPath) tarjetas conectadas a redes Gigabit Importante segmentar/repartir el trafico en diferentes switches físicos Rendimiento Tolerancia a fallos
28. Receta Instalar el Sistema Operativo Instalar los drivers del fabricante Instalar Roles y Funcionalidades Hyper-V Multipath I/O FailoverCluster Desde el almacenamiento Crear las LUNs sobre los discos, con el nivel de RAID deseado Presentar las LUNs que conformaran el almacenamiento compartido Instalar el DeviceSpecific Module (DSM) de la cabina de almacenamiento Es frecuente ver los volúmenes correspondientes a cada LUN duplicados en el Administrador de Discos
29. Los CSVs son LUNs normales Solo cambia la forma en la que las maneja el cluster En todos los nodos se montan en el mismo path: C:lusterStorageolumeXX Hay que habilitar su soporte a nivel de cluster Interfaz gráfica Cluster.exe /propEnableSharedVolumes=1 Receta: Presentar la LUN que queremos que sea un CSV a todos los nodos del cluster Tener en cuenta que tendrá un gran volumen de datos y un alto I/O Agregar la LUN al cluster (conviene re-validar el cluster) Agregar el nuevo disco que aparece como almacenamiento disponible como un nuevo CSVs
30.
31. Redirected I/O Redirección del I/O por SMB La VM corriendo en el nodo 2 no esafectada Volumenmontado en e l Nodo 1 Fallo de conectividad a la SAN SAN Las VMs todavía se pueden mover por Live Migration VHD
32. CSVs vs. LUNs dedicadas CSVs Pros Simplifica el diseño del almacenamiento y el uso de herramientas específicas (p.eBackup, Clone, Mirror, etc.) Ahorra espacio Facilita la gestión del entorno virtualizado Mejores tiempos de respuesta en Live Migrations Cons Muchos huevos en la misma cesta Rendimiento (discutible) No permite Pass-Through LUNs Dedicadas Pros Rendimiento (discutible) Aislamiento Pass-throug Geo-Clustering Migraciones vía SAN transfers/NPIV Cons Complica el diseño almacenamiento Complica el aprovisionamiento de nuevas VMs Peores tiempos de Live Migration
35. Clusters vs. Stand alone La HA tiene un precio Un nodo de cluster siempre está peor aprovechado que un stand-alone Los requerimientos de hardware e infraestructura son mayores. La solución es más compleja de diseñar, implementar y mantener ¿Realmente necesito un cluster? Criticidad de las VMs albergadas Uso de otro tipo de estrategias de HA adicionales Exchange CCR, DB Mirroring, NLB, Pools de VMs, etc. Las VMs todavía se pueden migrar entre hosts stand-alone, con unos tiempos de parada muy aceptables (minutos)
36. Dimensionamiento y configuración fina Factores a tener en cuenta Número máximo de nodos en fallo que se pueden soportar según el número de nodos y el modelo de quorum. Para más de dos nodos, un voto adicional basado en disco o file share solo tiene sentido para un número par de nodos. Los nodos pasivos son útiles. Aceleran los failovers Debemos planificar su “desperdicio de hardware equivalente” en cualquier caso, repartiéndola entre los activos A mayor número de nodos, más podemos relajar la proporción Activos/Pasivos La memoria NO es el único factor a tener en cuenta a la hora de cargar nodos con VMs La CPU puede ser determinante Hay que tener muy en cuenta el I/O de red y almacenamiento Planificar detalladamente las listas de possibleowners y preferredowners para cada grupo de cluster asociado a cada VM