Federico Cinalli

The Top 10 Things to Check for a healthy vSAN Cluster

Top 10 Things to check vSAN Cluster 

1-vSAN Metrics
Topic: Performance and Troubleshooting
Problem: Poor performance
Impact: High. The Workloads might not receive the expected resources for a base performance
Cause: Host, Device or Network failure. Not optimal vSAN Design. Design or Sizing didn't align with Best Practices
Checklist:
Max Disk Group Congestion
Read Cache / Write Cache Latency (ms)
Avg Read / Write Latency (ms)
vSAN Port Group Packets Dropped
Capacity Disk Latency (ms)
Min Disk Group Write Buffer free (%)
Sum Disk Group Errors
Read Cache Hit Rate (%) (Hybrid vSAN Cluster)
Read Cache Miss Rate Ratio (Hybrid vSAN Cluster)
Best Practice: Align Cache, Endurance and Capacity disks based on Workload behaviour expected (Write, Read and Mix use intensive)

2-What if
Topic: Potential failures on Host Resources or Fault Domains
Problem: After a vSAN failure the Cluster doesn’t have the minimum amount of Resources to provide Availability based on the PFTT Policy Rule
Impact: Medium-High. Components state might be Degraded, Absent or Stale. Some VMs Objects would not be available
Cause: A Host in Maintenance mode, Network partition, Host Isolated, Controller Failure, Disk Failure
Checklist:
RVC: vsan.whatif_host_failures
vSphere Client Health Check -> Limits -> After 1 additional Host failure
ESXCLI vsan health cluster get -t "After 1 additional host failure”
Best Practice: Don’t use the minimum amount of Hosts per Cluster

3-Hardware Compatibility
Topic: vSAN Compatibility Guide (VCG)
Problem: Hardware not supported. Firmware and Drivers not validated
Impact: Medium-High. vSphere Health Check will show a warning or error. VMware support may not accept the ticket
Cause: The Hardware is not in the vSAN VCG for the current vSphere version. The Hardware-Firmware-Driver is not supported or validated for the current version. Firmware and-or Driver was not updated after a vSphere Upgrade
Checklist:
https://www.vmware.com/resources/compatibility
vSphere Client vSAN Health Check -> Hardware compatibility
vSphere Client vSAN Health Check -> Online health -> vCenter Server up to date
esxcli vsan debug controller list
Best Practice: Use vSAN Ready Nodes if possible. Always check the VCG before Upgrading. Keep the vSAN HCL DB (vCenter Health Check) up to date.

4-Network Performance
Topic: Network Configuration and Bandwidth
Problem: Network misconfiguration, physical errors, dropped packets, poor performance
Impact: High. Network problems might result in Isolated Hosts, vSAN Cluster Partitions and implications in the Availability and Performance
Cause: Not following the Best Practices for Network Design. The Network resources provided for vSAN VMkernel are not enough. Potential failures in the Physical layer
Checklist:
Sum vSAN Portgroup Packets Dropped (%)
Total Throughput (KBps)
vSphere Client vSAN Health Check -> Network -> Hosts with connectivity issues
Best Practice: 10Gbps for All-Flash at a minimum. QoS at the physical layer. NIOC if you share vmnics. Jumbo Frames and one VLAN per vSAN Cluster. Enable vDS with Health Check in vCenter.

5-vSAN Components Resynchronizing
Topic: vSAN Object Compliance
Problem: After a Failure or Rebalance the vSAN Cluster has to re-create Components. While that process takes place it is not recommended to run any Maintenance task such as Upgrade, apply a new Policy to existing VMs, force a Proactive Rebalance or put a Host in Maintenance mode.
Impact: Medium-High. It’s possible to see an impact on the Performance. Based on the Available Resources and the PFTT and FTM policy’s, if one Host enters in Maintenance mode, that might affect the Availability of some Components.
Cause: Host or Device failure, proactive or reactive rebalance, Maintenance task and Change vSAN Policy.
Checklist:
vSphere Client -> vSAN Cluster -> Monitor -> vSAN -> Resyncing Components
RVC: vsan.resync_dashboard
PowerCLI -> Get-VsanResyncingComponent -Cluster $cluster
Best Practice: Provide enough Network resources and avoid the deployment of vSAN Clusters with a minimal amount of Hosts (based on the PFTT and FTM rules).

6-vSAN Hosts and KMS Clusters
Topic: vSAN Encryption
Problem: After a general outage over a vSAN Cluster with Encryption services enabled, the Hosts are not able to reach the KMS Servers.
Impact: High. The Virtual Machines in that Cluster won’t be able to be powered on.
Cause: A general outage that powered off all the Hosts and Virtual Machines, including vCenter Server VM.
Checklist:
vSphere Client vSAN Health Check -> Encryption -> vCenter and all hosts are connected to Key Management Servers
vCenter and Hosts have to be able to reach KMS Cluster that on 5696 Port
Best Practice: Avoid single point of failures. Add KMS Cluster based on IP. Don't encrypt vCenter VM.

7-Host Membership
Topic: vSAN Cluster Partitioned
Problem: The Host is not able to provide resources to the Cluster.
Impact: Medium-High. Some Objects will appear as non-compliance and some Components might be Absent.
Cause: Because of a logical problem, a network partition, misconfigurations and human errors, the vSAN Cluster is partitioned, one Host isolated or the Host is not a member of the Cluster (even if the vSphere Client shows the Host inside the Cluster in the UI).
Checklist:
esxcli vsan cluster get
RVC: vsan.cluster_info
vSphere Client vSAN Health Check -> Cluster -> vSphere cluster members
Best Practice: Follow the vSAN Network Design Best Practices. Avoid a SPOF.

8.-Stretched Cluster Sites Connectivity
Topic: Stretched Cluster
Problem: Available Bandwidth, high Latency and lost connectivity.
Impact: Medium. In the case of failures or high latency between Sites, Replicas might be impacted. A Witness failure will suppose Absent Components and Objects in non-compliance state and, for this reason, a Risk.
Cause: Poor network resources such as Low Bandwidth, high Latency and non-stable connectivity between Sites.
Checklist:
vSphere Client vSAN Health Check -> Stretched cluster
Available Bandwidth and Round Trip Latency between Sites (using 3rd party tools)
Best Practice: Follow the vSAN Network Design Best Practices for Stretched Cluster and 2 Node Cluster.

9.-Available Capacity
Topic: vSAN Storage Capacity
Problem: Low available capacity in the vSAN Cluster.
Impact: High. This situation might create a Risk if any failure takes place. It will limit some maintenance tasks and may restrict the creation of new VMs.
Cause: The design didn't consider the usable capacity, the growth, snapshots, swap files, slack and the impact of the policies.
Checklist:
Slack space (between 25% and 30%)
Total Disk Space (GB)
Disk Space Used (%)
Used Disk Space (GB)
Best Practice: Maintain a 25%-30% additional space for Slack. Consider the ratio Cache:Capacity when adding more capacity.

10.-Are you Following the vSAN Best Practices?
Topic: vSAN Best Practices to check
Checklist:
Two or more Disk Groups per Host
Two (or more) Disk Controllers per Host
QoS and Jumbo Frames
LACP (if already configured). Align physical switch configuration with vDS LACP
1 vSAN Cluster, 1 VMkernel PG, 1 VLAN
Use Passthrough Controller mode. Set 100% Read Cache on Controllers
Avoid Dedup and Compression on High-Performance Workloads
Sharing vmnics? Use vDS with NIOC. Configure Bandwidth reservation and high custom shares
Align Cache, Endurance and Capacity disks based on Workload behaviour expected (Write, Read and Mix use intensive)
Deploy homogenous Hosts Configurations for CPU, RAM, NETWORK and DISK
Configure BIOS Host Power Management for OS Controlled
Use multiple Storage Policies
Using controllers with high queue depth improves performance
Consider NVMe Devices for high-performance

VMware Cloud on AWS - Overview

VMware Cloud on AWS 

 Hace poco más de año y medio los dos gigantes de servicios Cloud llegaron a un acuerdo. Amazon AWS como líder en Cloud Pública en servicios de Infraestructura (IaaS) y VMware como dueño indiscutible del mercado de Cloud Privada.

El acuerdo permite ofrecer a los clientes lo mejor de cada mundo, la madurez y versatilidad del Stack de VMware (vSphere, vSAN y NSX) sobre el Cómputo, servicios y las Comunicaciones en los super Datacenters de Amazon distribuidos en Regiones y Availability zones.

En esta ecuación Amazon estará a cargo del Hardware y todos los servicios del Datacenter como conectividad a Internet, IPs públicas y otros servicios disponibles dentro del portfolio de AWS.
VMware gestiona la infraestructura desplegada bajo demanda, incluyendo configuración inicial, parcheado y actualizaciones. Esto incluye vCenter, ESXi’s, vSAN y NSX.

Y por último y no menos importante el cliente se encarga de migrar y administrar sus cargas de trabajo, además de pagar las facturas por el servicio.

Sponsor: Vembu BDR Suite v3.9.1

 Vembu

 

El pasado 15 de Mayo Vembu anunció su ultimo gran release con importantes novedades como ya nos tiene acostumbrados.

A destacar la version Standard que está orientada especialmente a Small business con precios muy competitivos.

 

La Suite Vembu BDR fué diseñada para proteger ambientes Privados, Públicos e Híbridos para plataformas Virtuales (ESXi – Hyper-V), Cloud y Físicas.

La version 3.9.0 viene con foco principal en mejoras para la Restauración de Datos, Almacenamiento y Seguridad de la información.

 

Vembu features

 

Entre las novedades de la version 3.9.0 podemos ver:

-Soporte para Tape Backup

-Quick VM Recovery

-Encriptación a nivel de Backup

-Autorización automatic en OffsiteDR

-Scripts Pre/Post en tareas de Backup

 

Qué hay de Nuevo en la version 3.9.1?

Como mencionamos anteriormente la nueva version Standard es la gran novedad la cual permite ser más competitiva en cuanto a orientación del negocio y su precio correspondiente.

De forma paralela a la version Standard tenemos ahora disponible la version Enterprise orientado a todo tipo de negocios.

 

Vembu Backup

 

Características destacables de Vembu BDR Suite:

-Backup para VMware y Hyper-V sin agentes

-Quick VM recovery

-Instant File Recovery

-Recuperación granular para aplicaciones Microsoft

-RTO de 15 minutos

-Compresión y deduplicación

-Encriptación AES-256

 

Vembu Microsoft Apps protection

 

Te invito a que visites la web de Vembu para comprobar los precios competitivos en todas sus variantes y considerarla como opción económica de Backup y Replicación.

Existen versiones de prueba totalmente funcionales por 30 días.

Para más consultas: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Mi experiencia con el vSAN Specialist badge

 

vSAN Specialist badge 

Si bien el badge de vSAN no se considera una certificación, aunque el precio sea exactamente el mismo que cualquier otra, la demanda y las implementaciones de vSAN están creciendo de forma exponencial.
Siempre dije que una certificación no asegura que tengas el conocimiento y experiencia supuesto, pero ayuda a abrir puertas.

En este Post voy a compartir mi experiencia preparando el examen y los recursos necesarios para poder aprobarlo sin sobresaltos.

Voy a comenzar diciendo que no es una certificación difícil, si bien son 60 preguntas realmente no profundiza demasiado en asuntos complejos.
Lo primero que tenemos que hacer es descargar el Exam Preparation Guide en el que encontraremos absolutamente todo lo que entra en el examen.

Es fundamental tener muy claras las reglas de vSAN en cuanto a requerimientos, tipos de discos, límites y políticas aplicadas a los diferentes Clusters disponibles.

Existe gran cantidad de documentación y Posts sobre vSAN como para aburrir. De lejos los Posts de Cormac Hogan son los mejores y más numerosos aunque hay muchos que son técnicamente avanzados incluso para el examen.

También disponemos de una importante colección de videos en Youtube y aquí recomiendo especialmente la serie de VMware muy bien presentada por Elver Sena Sosa:

VMware vSAN Youtube series

Serie vSAN en Youtube presentada por Elver Sena Sosa

What is vSAN?: vSAN Architecture Series #1  

vSAN Disk Groups: vSAN Architecture Series #2 

vSAN Objects: vSAN Architecture Series #3

vSAN Data Placement: vSAN Architecture Series #4 

vSAN FTT: vSAN Architecture Series #5

vSAN Failure Management: vSAN Architecture Series #6

vSAN Erasure Coding: vSAN Architecture Series #7

vSAN Striping: vSAN Architecture Series #8

vSAN Network Architecture: vSAN Architecture Series #9

vSAN Distributed Storage: vSAN Architecture Series #10

vSAN 2-Node Cluster: vSAN Architecture Series #11

vSAN Stretched Clusters: vSAN Architecture Series #12

No es requerimiento asistir a un curso oficial de vSAN aunque evidentemente puede ayudar tanto la parte teórica como sobre todo los Labs.

Advertencia: No tenemos excusa si no disponemos de Lab!!! VMware pone a nuestra disposición unos tremendos Labs (10 puntos + IVA) en su plataforma HOL (Hands On Labs) que son totalmente gratuitos.
En cuestión de un minuto (literal) tendremos listo para comenzar a usar los recursos de Labs con sus correpondientes manuales paso a paso. 

Recomiendo los HOL-1808-01-HCI y HOL-1808-02-HCI, ambos sobre vSAN 6.6.

Y si bien es una buena idea seguir el manual la primera vez que hacemos el Lab tenemos que tener en cuenta que no es obligatorio utilizar el mismo. Con esto confirmo que podemos levantar el Lab y utilizarlo según nos interese ;-)

VMware Hands On Labs  

A continuación tenemos, en líneas generales, información del examen 2VB-601:

Código del examen: 2VB-601

Duración: 105 minutos 

Número de preguntas: 60

Idioma disponible: Ingles

Modalidad: Múltiple choice

Curso obligatorio: No

Precio: U$S 250.-

 

Como recurso adicional tengo en mi Blog un buen resumen con la serie 50 preguntas y respuestas sobre vSAN que consta de 5 partes y que seguramente te vengan muy bien a la hora de preparar el examen.

Serie Post vSAN 50 FAQ

 

Como siempre espero que te haya resultado de utilidad y te pido que me ayudes a compartirlo para que mas gente pueda aprovecharlo.

Y por último espero tu comentario en este Post cuando hayas pasado la certificación!!!

 

50 Preguntas y Respuestas sobre vSAN - Parte 5

50 Preguntas sobre vSAN 

41-Qué es y cuáles son las tareas del servicio CLOM?
El acrónimo CLOM proviene del daemon Cluster Level Object Manager que se encarga de aplicar las Políticas distribuyendo los componentes y definiendo su ubicación en los Disk Groups a través de los Hosts de ESXi del Cluster de vSAN, primero en los discos de Caché y luego en los de Capacidad.
A su vez también aplica un balanceo repartiendo la carga de los componentes entre los diferentes Disk Groups del Cluster y finalmente los discos de Capacidad.
Tanto cuando se despliega una nueva VM, como si cambiamos una política o si se produce un fallo que requiere generar nuevos componentes es CLOM quien define la ubicación así como también controla los tiempos límite para generar nuevas réplicas/componentes de los Objetos.
vSAN Health Check muestra el estado de CLOM que está ejecutándose en cada Nodo del Cluster de vSAN.

 

42-Qué ocurre cuando un disco de Capacidad deja de responder?
Depende de lo que se entienda por dejar de responder. vSAN considera dos potenciales estados en caso de fallo: Absent y Degraded.
Un disco se considera en estado Absent cuando de repente no se tiene acceso al mismo, sin mayores indicadores. Eso puede ocurrir debido a un fallo del que no se tenga información o simplemente si alguien removió físicamente el disco del Nodo. En ese caso vSAN esperará 60 minutos (tiempo por defecto que se puede modificar) hasta que el disco esté nuevamente operativo. En el caso que se cumpla el tiempo de espera y el disco siga en estado Absent se comenzarán a recrear los Componentes en otros discos de Capacidad, ya sea en el mismo Disk Group o en otro diferente, tanto del mismo Nodo como en algún otro, siempre aplicando las Políticas. Si el disco vuelve a estar operativo antes de los 60 minutos entonces comienza el proceso de resincronización de los componentes.
En el supuesto caso que un Nodo de vSAN reciba una notificación de fallo en Disco entonces se considera en estado Degraded. Cuando un disco de Capacidad está en modo Degraded inmediatamente comienza el proceso de creación de nuevas réplicas de los Componentes en otros discos de Capacidad.
Tanto si un disco de Capacidad está en modo Absent como Degraded vamos a tener VMs con estado Noncompliant.
Si estamos trabajando en un Cluster de vSAN All-Flash con Deduplicación y Compresión habilitado y falla un disco, ya sea de Capacidad o Caché, entonces todo el Disk Group fallará y se comenzará de forma inmediata con el proceso de creación de nuevas réplicas (en otros Disk Groups) de los componentes que estaban en el Disk Group perdido. La capacidad del vSAN Datastore se verá reducida con lo que aportaba en capacidad el Disk Group con fallo.

 vSAN Disk Absent

 

43-Un disco SSD de Caché no responde, qué sucede con el Disk Group?
En el supuesto caso de fallo, tanto Absent como Degraded, de un disco SSD que está configurado como Caché de un Disk Group, el Disk Group entero dejará de responder inmediatamente. Naturalmente que todas las VMs que tenían componentes almacenados en el mencionado Disk Group pasarán a un estado Non-Compliant y de forma inmediata comenzará el proceso de recreación de los componentes en otros Disk Groups del Cluster.

 vSAN Disk Group Fail

 

44-En una situación de una partición de Red (vSAN Network) cómo afecta al funcionamiento y réplicas de las VMs?
Un Host de vSAN en una situación de partición de Red no puede aportar recursos de Almacenamiento y por lo tanto todos los componentes almacenados en esos Disks Groups afectados aparecerán como Absent y automáticamente las VMs propietarias de esos componentes cambiarán su estado a Non-Compliant.
Dependerá de la política de Alta Disponibilidad configurada en cada VM Storage Policy para vSAN el nivel de tolerancia a fallos. Evidentemente el número de fallos a tolerar podrá ser igual al número de Hosts afectados por la partición pero no superior.
Si transcurridos los 60 minutos (valor por defecto) no se resuelve el estado de partición en la red, vSAN comenzará a crear nuevas réplicas de los componentes en Disk Groups de otros Hosts según las Políticas y los recursos disponibles.
Vale la pena mencionar que una vez que habilitamos vSAN el servicio de vSphere HA dejará de utilizar los VMkernel de Management para utilizar los VMkernel de vSAN con el objetivo de evitar inconsistencias en caso de partición y/o fallos de red.

 

45-Debemos poner un Host de vSAN en Mantenimiento, cuál es el procedimiento correcto y las opciones disponibles?
Desde que aprovisionamos recursos de Almacenamiento en los Hosts del Cluster la puesta en Mantenimiento de un Nodo tiene mayor impacto que si solo tuviésemos capacidad de Cómputo.
Al poner un Host de vSAN en modo mantenimiento tenemos tres opciones (además de la opción de migrar VMs si tenemos habilitado DRS):

vSAN Host Mant Opciones
-Evacuar toda la data a otros Hosts (Evacuate all data to other hosts): Cuando un Host estará más de 60 minutos fuera de producción o si daremos de baja el Nodo entonces tendremos que seleccionar esta opción. Lo que ocurrirá será que absolutamente todos los bloques de datos se crearán nuevamente en Disk Groups de otros Hosts. Hay que tener en cuenta que con esta opción generaremos mucho movimiento de datos en la red de vSAN por lo que no se recomienda hacerlo en horario de máxima producción.
-Asegurar accesibilidad (Ensure data accessibility from other hosts): Si necesitamos parchear o actualizar un Host y el período de tiempo que estará el Nodo fuera de producción se estima que será inferior a 60 minutos, entonces esta opción generará un menor impacto en la red de vSAN. Replicará los bloques de datos únicos (sin otra réplica en otros Hosts) hacia otros Disks Groups para asegurar la continuidad de todas las VMs. El impacto de esta opción es que las VMs con componentes en los Disk Groups de ese Nodo estarán en estado Non-Compliant al tener componentes en estado Absent.
-No mover ningún dato (No data evacuation): Seleccionamos esta opción si estamos seguros que todos los Objetos de las VMs disponen de Réplicas sea cual sea el método de protección.

vSAN Host Maintenance

Una de las novedades en vSAN es el Pre-check evacuation que nos muestra las VMs y sus componentes que tendrá que mover dependiendo cada opción que seleccionemos. Muy bueno!!!

vSAN Pre-Check 

 

46-Cómo afecta al vSAN Datastore y las VMs cuando un Host deja de responder?
Cuando un Host deja de responder el estado de todas las VMs que tengan componentes en los Disk Groups de ese Nodo cambiarán a Non-Compliant. El estado de los recursos de Almacenamiento del Nodo estará, para vSAN, en modo Absent por lo que comienza a correr el reloj dando un margen de 60 minutos hasta que el Nodo se recupere (antes de los 60 minutos) o bien para comenzar a crear nuevas Replicas (a partir de los 60 minutos).
En toda situación de recursos de Almacenamiento ya sea Absent o Degraded, a nivel de Disco de Capacidad, Disk Group y/o Nodo la capacidad del vSAN Datastore se verá reducida en la capacidad RAW que aportan todos los discos de Capacidad que no están prestando servicio.

 

47-Qué sucede si un RAID Controller dejar de Responder?
El RAID Controller en un Host de ESXi que forma parte de un vSAN Cluster únicamente trabaja para ser de nexo entre los discos físicos y el Hypervisor. No hace ningún tipo de RAID ni mucho menos funciona como Caché de Escritura.
Si un RAID Controller deja de funcionar eso supone que todos los discos presentados al Hypervisor también dejarán de responder. Fallo total. En todo caso los Disk Groups de ese Nodo dejarán de funcionar.
Si el ESXi es capaz de identificarlo como un fallo (Degraded) entonces comenzará inmediatamente la creación de los objetos en los Disk Groups de los otros Nodos.
De esta forma el RAID Controller se convierte en un punto único de fallo y es por eso que se recomienda tener dos por Nodo.

 

48-Qué herramientas hay disponibles para Monitorizar un Cluster de vSAN?
Además del mejorado vSphere Web Client (Flash) hay disponibles varias herramientas. Ruby vSphere Console es una herramienta instalada por defecto en vCenter, para ambas plataformas, que nos permite visualizar el estado, configuración y monitorización de todo el Cluster desde línea de comandos. Es especialmente útil en entornos con múltiples Clusters para administradores que se sienten cómodos utilizando líneas de comando.
PowerCLI tiene cada vez más comandos para vSAN. Si bien está muy orientado a automatizar configuraciones también es posible visualizar el estado del Cluster, Host, Red, Disk Groups y gestión de Políticas para VMs incluso utilizando TAGs. Muy útil cuando se trata de administradores con conocimientos previos de Powershell y PowerCLI.

vSAN vROps
vRealize Operations Manager incluye en su versión 6.6 un Management Pack para vSAN por defecto. vROps es la herramienta con mayúsculas cuando se trata de monitorización, análisis y gestión de capacidad de infraestructuras VMware.

vSAN vRealize Operations Manager

Además trabaja en conjunto con su socio preferido que es Log Insight (troubleshooting), ahora integrado en el GUI del propio vROps. Éste es mi preferido ;-)

 

49-En caso que la instancia de vCenter que gestiona el vSAN Cluster cae con un Host, qué ocurre?
De la misma forma que vSphere HA es agnóstico al servicio de vCenter, vSAN no tiene una dependencia en cuanto a funcionamiento. vSphere HA trabaja en conjunto con vSAN para aprovisionar de alta disponibilidad tanto en recursos de Cómputo (HA) como también de Almacenamiento (vSAN) y en caso de caída del Host en el que está funcionando vCenter o bien si la VM de vCenter deja de responder vSAN seguirá operativo.
vCenter puede estar protegida con Políticas de vSAN tanto dentro de un Site como entre Sites en caso de Stretched Cluster configurado.

 

50-Cuál es el procedimiento correcto de actualización de un Cluster de vSAN?
El servicio de vSAN en general está embebido tanto en cada ESXi como también en vCenter por lo que al actualizar cada instancia estamos también actualizando vSAN.
El procedimiento correcto sería el siguiente:

-Todas las instancias de PSC (requerido para vCenter)
-vCenter
-Hosts del Cluster
-vSAN File System (si corresponde en la actualización)

Como se puede apreciar es recomendable disponer de una buena ventana de mantenimiento para la actualización.

 

Hasta aquí llegamos!!! 50 preguntas y respuestas sobre vSAN que bien perfectamente podrías haber sido un Post para cada pregunta. Ni bien tenga tiempo voy a armar un PDF con las 50 preguntas con imágenes y con información adicional para compartir. 

Como siempre espero que te haya resultado de utilidad. Espero tu feedback y si te parece que le puede servir a mas gente dale a compartir!!!

Nos vemos en el próximo Post ;-)

 

Libro Remote Desktop Services de Xavier Genestós

Libro RDSIT

 

Otro excelente libro del gran Xavier Genestós que en esta ocasión nos descubre con todo detalle el servicio RDS que tanto utilizamos.

Antes de mi reseña quisiera destacar dos apectos muy importantes para mí.

La primera es que este Post no es esponsorizado, lo escribo por el respeto personal y profesional que le tengo al autor.

La segunda es que me quito el sombrero ante un autor de libro técnico hoy en día, especialmente en idioma español. A medida que nos especializamos en una tecnología en concreto es cada vez mas difícil encontrar material en cualquier idioma que no sea el ingles. Bravo Xavi!!!

Tanto si trabajamos con tecnología RDS como si también lo hacemos sobre una infraestructura Citrix nos vendrá muy bien la cantidad de información que podremos encontrar en este libro. En la misma línea que en sus libros anteriores veremos explicaciones simples, concretas, prácticas y lo más importante, enfocadas al mundo real.

Una combinación de capturas de pantalla, tablas y comandos hacen que sea un libro muy fácil de leer y que resulte útil tanto para los que estén buscando aprender desde cero como para los que ya tengan algún conocimiento en el servicio de Escritorios Remotos de Windows.
Un ejemplo de esto es que parte de los conceptos del Protocolo y Servicios RDP en un capítulo y en otros se explica el Dimensionamiento, Rendimiento y Certificados SSL.

Información sobre el libro:
Título: Remote Desktop Services para administradores de IT
Autor: Xavier Genestós @sysadmit
Idioma: Español
Formato: Papel A4
Páginas: 198
Precio: € 35.-
Se puede comprar en: http://www.lulu.com/shop/xavier-genest%C3%B3s/rdsit-remote-desktop-services-para-administradores-de-it/paperback/product-23321423.html

Índice:
-Índice
-Prólogo
-Presentación
-Copyright
-Protocolo RDP
-Arquitectura
-Dimensionado y Rendimiento
-Instalación en un Dominio de AD
-Instalación en un Workgroup
-Colecciones y RemotAPP
-Certificados SSL
-Licencias RDS
-Escenarios paso a paso
-Portapapeles
-Impresoras
-Sesión de consola y modos RDP
-Shadow
-Draine Mode
-Combinaciones de teclas
-Instalación de aplicaciones
-Herramientas administrativas de líneas de comandos
-Seguridad
-Herramientas para la resolución de problemas
-Alta disponibilidad
-Próximas publicaciones

Libros Xavier Genestós

Éste es el décimo libro de Xavi Genestós!!! Nuevamente me quito el sombrero por un profesional que dedica su tiempo a escribir con calidad y en nuestro idioma.

Dudas de como adquirir estos libros? aquí un FAQ: http://www.sysadmit.com/p/faq-libros.html

 

50 Preguntas y Respuestas sobre vSAN - Parte 4

vSAN Policies

 

En este cuarto Post de la serie de vSAN nos centraremos en las Virtual Machine Storage Policies. No es posible entender cómo trabaja vSAN si no comprendemos las Políticas. Naturalmente que cada vSAN Policy merece como mínimo un Post pero no es la naturaleza de esta serie la profundización. Ahí vamos!!!

 

31-Diferencia entre FTT, PFTT y SFTT?
Hasta la versión de vSAN 6.5 existía la política FTT (Failures to Tolerate) que definía el número de fallos a tolerar, como pérdida de Host o Disk Group. A partir de vSAN 6.6 se renombró esta política para afinar aún mas la protección en entornos vSAN Stretched Cluster utilizando PFTT en lugar de FTT y agregando la nueva Política SFTT. De esta forma entendemos porqué FTT aparece en alguna documentación y también la razón de que aparezca PFTT y SFTT (nueva Política) sin que hubiera ninguna mención a FTT en el mismo documento o Post.

PFTT (Primary Failures to Tolerate) indica el número de fallos en Hosts o Disk Groups con un valor por defecto de 1 y un valor máximo de 3.
En un entorno con vSAN Stretched Cluster PFTT define la Réplica a aplicar entre los Sites con un valor de 1 -> PFTT=1 que equivale a un RAID 1 entre los Objetos protegidos entre los 2 Sites a los que se les haya aplicado esta política. En vSAN Stretched Cluster PFTT puede, únicamente, estar configurado con valores de 0 o 1 cuando 0 equivale a que no queremos proteger ese Objeto entre los Sites.

Qué ocurre entonces con PFTT cuando no tenemos Stretched Cluster configurado? En esa situación configuramos la política con valores entre 0 y 3 definiendo los fallos a tolerar en nuestro único Site.

Está muy bien pero y ahora para qué sirve SFTT? SFTT aparece disponible para configurar únicamente cuando tenemos Stretched Cluster habilitado. Como mencionamos anteriormente PFTT, con vSAN SC, definimos el nivel de Protección entre Sites y con SFTT definimos el nivel de Protección local del Objeto.

Veamoslo mejor con ejemplos.
Ejemplo 1: Quiero proteger una VM y sus Objetos con vSAN SC y tolerar 2 fallos en el Site Local: PFTT=1 SFTT=2
Ejemplo 2: Tengo una VM que no quiero protegerla con vSAN SC y necesito tolerar 1 fallo en el Site Local: PFTT=0 SFTT=1
Ejemplo 3: Disponemos de un entorno sin vSAN Stretched Cluster configurado y queremos proteger el Objeto ante 2 fallos: PFTT=2

 

 

32-Cuál es el objetivo del concepto Site Affinity?
Cuando habilitamos vSAN Stretched Cluster creamos dos Sites con Hosts: Preferred y Secondary, además del Witness. Hay infraestructuras en las cuales ambos Sites están totalmente operativos en Producción y otras en las cuales únicamente tenemos un Site en Producción (Preferred) y el Site secundario simplemente como Réplica.
A través de la Política Site Affinity tenemos la posibilidad de asignar un Site a una VM/Objetos para que trabaje de forma “local” reduciendo además la latencia y el consumo de ancho de banda.

 

33-Por qué la Política Number of Disks Stripes Per Object no tiene sentido en un Cluster de vSAN All Flash?

Esta política define el número discos de Capacidad entre los cuales estará repartida cada Réplica pudiendo establecer un valor mínimo de 1 (valor por defecto) y un máximo de 12.
En vSAN Hybrid podría llegar a tener sentido para obtener un mayor número de IOPS al utilizar múltiples discos de Capacidad de forma simultánea aunque con su correspondiente incremento de consumo de recursos. Únicamente se aplica a los Objetos de VMs criticas.

En un Cluster de vSAN All-Flash los discos SSD de Capacidad son los que responden todas las operaciones de lectura y normalmente disponen de IOPS más que suficientes como para no necesitar crear Stripes adicionales. Es por eso que esta Política tiene un valor por defecto de 1.

 

34-Cuáles son las opciones de la Política vSAN Failure Tolerance Method?
Básicamente tenemos dos opciones con diferentes parámetros disponibles para definir el método de Replicación a utilizar. Estas opciones impactan tanto en el rendimiento como también en la capacidad del Datastore de vSAN.
Los métodos de protección son RAID 1 (Mirroring) y RAID 5/6 (Erasure Coding). La opción RAID 5/6 únicamente está disponible en un Cluster de vSAN All-Flash y viene acompañada por la Política PFTT con opciones 1 y 2.
Una Política Failure Tolerance Method configurada para utilizar RAID 1 vendrá acompañada con la Política PFTT con valores 0, 1 y 2 que define el número de Fallos a Tolerar y, evidentemente, el número de Replicas a generar. Recordemos que PFTT en vSAN Stretched Cluster únicamente tendrá como opciones 0 y 1. Esta Política consumirá mas espacio aunque no penalizará tanto en Rendimiento como RAID 5 o 6.
En el caso de la misma Política configurada para utilizar RAID 5/6 puede tener como opciones en PFTT 1 o 2 siendo las Replicas RAID 5 o RAID 6 respectivamente. Esta Política consumirá menos espacio pero debido al calculo y gestión de la distribución de los bloques de disco no tendrá el mismo rendimiento que un RAID 1.

Es muy importante destacar que todas estas configuraciones estarán disponibles únicamente en el caso de disponer del número de Hosts que requiera cada combinación de Políticas y valores.

 

35-Política vSAN Flash Reservation
La Política permite definir un porcentaje del Objeto VMDK que será reservado en el Caché de vSAN. Esto se aplica únicamente en Clusters Híbridos orientado a mejorar el Rendimiento. No solamente no debemos abusar de esta Política sino que, además de utilizarla únicamente en Clusters Híbridos, está orientada solamente a VMs críticas en cuanto a rendimiento.
Esta Política no aplica en un Cluster de vSAN All-Flash por razones obvias ya que todas las operaciones de Escritura y Lectura son gestionadas por discos Flash y no tiene ningún sentido aplicar esta Política en ese tipo de Cluster.

 

36-Política vSAN Force Provisioning
Existen situaciones en que desplegamos una nueva VM y le asignamos una Política determinada. Como mencionamos varias veces las Políticas y sus opciones necesitan de ciertos recursos (requerimientos) para poder ser cumplidas. Puede darse el caso que tengamos algún Host en modo Mantenimiento, un Host o un Disk Group caído. En todos esos casos el estado de cumplimiento para aplicar esa Política en concreto será Non-Compliant.
Por defecto si estamos en un estado Non-Compliant no se desplegará la nueva VM o bien no se aplicará la Política que queremos asignar al Objeto en cuestión.
La Política Force Provisioning (con valor No por defecto) puede configurarse en Yes y nos permitirá desplegar la VM o bien asignar la Política a un Objeto por más que estemos en modo Non-Compliant.

Esta configuración únicamente se recomienda en caso que tengamos la total certeza de que recuperaremos rápidamente el Host o el Disk Group.

 

37-Qué utilidad tiene la Política IOPS limit for object?
El caso de uso dependerá siempre del administrador pero claramente está orientada a establecer un límite en las operaciones tanto de Lectura como también de Escritura.
Esta Política no considera los aciertos en Caché, únicamente contabiliza y limita las operaciones en los discos de Capacidad. vSAN por defecto no aplica ningún límite de IOPS.

 

38-Qué es y cómo funciona la Política Disable object Checksum?
El valor por defecto de esta política es NO y significa que, por defecto, todos los objetos ejecutan una validación de integridad de datos. Configurar la Política en Yes deshabilitará la validación de la integridad de datos con su consecuente ahorro de recursos y mejora en rendimiento aunque con el riesgo de que nuestros datos no tengan la integridad correspondiente. Se recomienda dejar el valor por defecto.

 

39-Cómo se aplica la Política Object Space Reservation?
Por defecto todos los Objetos en vSAN se crean en formato Thin Provisioning. Si bien es posible con la Política Object Space Reservation crear una reserva de espacio para Objetos de VMs críticas en cuanto a disponibilidad eso no supone que cambiará el formato. La política puede estar configurada en 0% (por defecto) o en 100%. Con una política configurada en 100% se creará una reserva en el Datastore de vSAN (se reducirá el espacio disponible) por el espacio aprovisionado en los Objetos afectados por la Política. Se recomienda nunca cambiar este valor en la Política por Defecto.

 

40-Cuáles son las opciones por defecto en la vSAN Default Storage Policy?
Ahora que estamos familiarizados con las Políticas de vSAN ya podemos analizar las opciones por defecto de la vSAN Default Storage Policy. Lo importante de esto es que si creamos cualquier Política adicional y no definimos alguna opción en concreto, en ese caso se utilizarán los valores de la Política por defecto cuando sea necesario.

vSAN 6.6 Default Policy

 

Podemos ver que hay un nivel de protección RAID 1 con un PFTT=1 sin forzar el aprovisionamiento en caso de estado Non-Compliant y finalmente sin reserva de Caché ni reserva de espacio en disco.

 

Como siempre espero que te haya resultado de utilidad y cualquier duda me dejas un comentario. Nos vemos en el próximo y último Post de la serie!!!

 

 

Suscribirse a este canal RSS

Mis Partners