Está en la página 1de 24

Resumen de mejoras de VMware vSphere 5

Enviado por Mauro Antoniazzi

Con el reciente lanzamiento de vSphere 5 , se han hecho públicas las principales novedades que
vienen incluidas en la Plataforma.

Encontraremos en esta nueva versión, considerables Mejoras de Performance , muchas de las cuales
hemos detallado en notas anteriores.

A continuación algunos de los aspectos más relevantes a tener en cuenta:

Generales

 Convergencia hacia ESXi: Esta nueva versión únicamente soporta la utilización de ESXi
como hypervisor; vCenter Server será capaz de administrar hosts con hypervisores ESXi 5,
ESXi/ESX 4.x y ESXi/ESX 3.5

 Auto Deploy: Nos permitirá desplegar de forma masiva hosts ESXi 5 mediante PXE en
nuestra red, para ello necesitaremos previamente disponer ya de una imagen ESXi
personalizada a enviar a nuestros hosts, que la podremos generar con Image Builder. De esta
manera, los nuevos hosts son automáticamente instalados basados en reglas definidas por el
usuario. Permite también la recuperación de la configuración original de un host.

 Framework CLI unificado: vSphre 5 ofrece un framework expandido y mejorado que


incluye un extenso conjunto de comandos (esxcli) consistentes y extensibles, incluyendo
nuevos comandos para facilitar el troubleshooting y mantenimiento de los hosts. Este
framework permite consistencia en la autenticación, roles y auditoria, usando los mismos
métodos de otros frameworks de administración, tal como vCenter Server y PowerCLI. Es
posible utilizar el Framework de manera remota como parte de vSphere CLI, así como
también de forma local en la shell de ESXi (hasta ahora conocida como Tech Support Mode).

 Nueva versión de hardware virtual con mayor escalabilidad: En vSphere 5.0 se introduce
una nueva generación de hardware virtual con su versión 8, la cual incluye las siguientes
características:

1. Soporte para 32 vCPU por VM


2. Soporte de hasta 1 TB de memoria RAM por VM
3. Soporte para gráficos 3D para ejecutar Windows Aero y aplicaciones básicas 3D
4. Soporte para dispositivos USB 3.0
5. Interfaz gráfica para configurar vCPU multicores
6. Soporte de lector de Smart-Card para VM
7. Soporte de VMware Tools expandido compatible ESX/ESXi 4.x
8. Soporte para Apple Mac OS X Server
9. Soporte de hasta 160 Cores y 2 TB de RAM por host.

Licenciamiento

Hasta ahora vSphere se ha licenciado por procesador; es decir, necesitábamos una licencia de
vSphere por cada procesador de cada host que utilizáramos, además de la correspondiente licencia de
vCenter. En este modelo los procesadores estaban limitados a un número máximo de núcleos (6 o 12
según la versión) y una cantidad máxima de 256 Gb de RAM física por host (menos en la versión
Enterprise+ que era ilimitada). Con el nuevo modelo de Licenciamiento se sigue licenciando por
procesador, pero se eliminan las limitaciones en los núcleos de los mismos y la RAM física de los
host. A cambio se establece una limitación en la suma de RAM de las máquinas virtuales
(vRAM). Cada licencia de la versión 5 de vSphere asigna una cantidad de vRAM según la versión
que se suma en un pool de vRAM total y es la máxima cantidad de memoria que podrán tener la
suma de todas las máquinas virtuales.

Almacenamiento

 Storage DRS: Basa todo su funcionamiento en Storage vMotion, es una utilidad que
permite realizar un balanceo automático de las VMs almacenadas en dos o más Datastores. El
balanceo es realizado mediante la medición de espacio ocupado y latencia de respuesta
en milisegundos (ms) de cada uno de los datastores que componen un Datastore Cluster.
Storage DRS realiza la ubicación inicial de los archivos VMDK y recomendaciones de
migraciones para evitar cuellos de botella de I/O y utilización de espacio.
 Nueva versión del sistema de archivos VMFS 5: Se pasa de la versión 3 a la 5 y mejora la
escalabilidad y rendimiento. El nuevo sistema de archivos elimina la limitación de 2 Tb de
tamaño máximo para los datastores al utilizar GPT (Guid Partition Table) en lugar de MBR y
unifica el tamaño de bloque a 1 Mb. Además incluye un mecanismo mejorado de sub-bloques
que mejora la gestión de los archivos pequeños. vSphere 5 nos permite migrar datastores de
VMFS 3 a VMFS 5 de forma sencilla desde la propia interfaz del cliente de vSphere o
utilizando vmkfstools con la opción -T.

 Soporte de Storage I/O Control para NFS: vSphere 5 Storage I/O control ahora soporta
NFS y “shares” basados en NAS. Esto permite regular dinámicamente el acceso de múltiples
máquinas virtuales a recursos de I/O compartidos en un clúster, basados en los shares
asignados a las máquinas virtuales.

 Storage Appliance: Beneficios de almacenamiento a bajo costo, sin la complejidad ni


necesidad de hardware de almacenamiento compartido.

 Asignación de almacenamiento por Políticas: Profile-Driven Storage nos permite


identificar el almacenamiento más apropiado para una máquina virtual, basándose en su nivel
de servicio requerido. Se pueden definir perfiles basados en capacidad, redimiendo, costos,
etc. y asignarlos a las máquinas virtuales de tal forma que sólo utilicen Datastores o Datastore
Clusters que cumplan con dichos requisitos.

 vSphere storage API program: En vSphere 5 el soporte VAAI ha sido ampliado soportando
thin provisioning y otras nuevas funcionalidades. Además aprovecha el nuevo Discovery API
Storage Awareness para detectar las capacidades del almacenamiento e interactuar con él
cuando se utiliza las nuevas características de Storage DRS y Profile-Driven Storage.

 Iniciador por software de Fibre Channel over Ethernet (FCoE): Similar al iniciador
iSCSI por software. Requiere un adaptador de red que soporte FCoE offload.

 Interfaz gráfica para la configuración del iniciador iSCSI: Permite configurarlo


completamente a través del cliente de vSphere eliminando la necesidad de utilizar la línea de
comandos para tareas como habilitar los jumbo frames.

 Mejoras en Storage vMotion: Aunque ya fue incluido en la versión 4 de vSphere, en esta


nueva versión añade mejoras como la posibilidad de realizar storage vMotion de máquinas
virtuales con snapshots creados.

Networking

 Control de I/O de Red: Los nuevos controles de I/O de red a nivel de máquina virtual
permiten una gestión más granular y aplicar reglas y políticas para asegurar la prioridad de
cada máquina virtual y facilitar el cumplimiento de acuerdos de nivel de servicio (SLA).

 vSwitches Distribuidos: En la nueva versión se mejora la visibilidad del tráfico de red de las
máquinas virtuales usando NetFlow y mejora las capacidades de monitorización y resolución
de problemas con el soporte a los protocolos Switched Port Analyzer (SPAN) y Link Layer
Discovery Protocol (LLDP).

Disponibilidad

 High Availability: Su nueva arquitectura lo hace más confiable y escalable además de


simplificar la configuración. Entre otras mejoras se elimina el concepto de nodos primarios y
secundarios (disponible en versiones anteriores) y además permite utilizar el almacenamiento
compartido como canal para la detección de los heartbeats entre los hosts.

 vMotion: Soporta ahora la migración de máquinas virtuales sobre redes con mayores
latencias. Además gracias a nuevas características, como el soporte multi-NIC, que permite
utilizar varias interfaces de red simultáneamente, se pueden mover máquinas virtuales de
mayor tamaño con más facilidad.

Seguridad

 Firewall de ESXi: Orientado a servicios y de tipo stateless, lo que quiere decir que trabaja en
capa 3 analizando la cabecera de los paquetes, y que permite restringir el acceso por
IP/subred a determinados servicios. Este nuevo firewall no está basado en iptables como los
de ESX y puede ser configurado desde el interfaz del cliente de vSphere o por línea de
comandos.

Gestión

 Cliente web de vSphere: Además del cliente tradicional de vSphere, se incorpora un cliente
web basado en Adobe Flex con una porción de las funcionalidades del cliente tradicional.

 vCenter Server Appliance: Permite ejecutar el vCenter como un appliance virtual basado en
Linux.

Conclusión

La nueva versión de vSphere incorpora notables novedades, tal vez las mas relevantes ligadas al
Almacenamiento. Los usuarios tendrán que evaluar y analizar el impacto económico del nuevo
Modelo de Licenciamiento, como punto poco favorable a la hora de migrar sus plataformas.

vSphere 5 – la nueva arquitectura de HA


Enviado por Patricio Cerda

En vSphere 5.0, la funcionalidad de HA (high


availability) ha sido completamente reescrita, incluyendo un cambio importante en su arquitectura, lo
cual detallaremos a continuación.
Las mejoras en la arquitectura de HA se centraron en mejorar tres aspectos fundamentales:

 Escalabilidad
 Confiabilidad
 Usabilidad

Escalabilidad

En lo que a escalabilidad se refiere, uno de los mayores cambios en la arquitectura de HA es que el


concepto de nodos primarios y secundarios ha sido completamente removido.

En vSphere 5, HA incorpora un nuevo modelo de relación maestro-esclavo entre los nodos en un


clúster, donde un nodo es elegido como maestro, y el resto son esclavos. El nodo maestro coordina
todas las acciones sobre disponibilidad con los otros nodos, y es responsable por la comunicación
con el vCenter Server.

Este modelo simplifica y reduce significativamente el esfuerzo al momento de diseñar la arquitectura


de un ambiente altamente disponible. Ya no es necesario preocuparse acerca de cuáles hosts son los
nodos primarios, y donde estos están localizados, especialmente en infraestructuras Blade.

Adicionalmente, HA en vSphere 5 incluye un mecanismo de deploy mejorado, que permite


completar acciones en una fracción del tiempo requerido en versiones anteriores, tales como tareas
de:

 Deploy de agentes HA.


 Configuración de HA.
 Reconfiguración de HA.

Confiabilidad

Una de las mejoras en cuanto a la confiabilidad de HA es la eliminación de las dependencias en HA


de cualquier componente externo. Por ejemplo, HA en vSphere 5 ya no tiene ningún tipo de
dependencia en la resolución DNS de cada host en el clúster, lo cual reduce la posibilidad de que una
falla de un componente externo, afecta la operación normal de HA.
Otra mejora en HA es la posibilidad de habilitar la comunicación entre los nodos dentro del clúster, a
través del subsistema de almacenamiento (Heartbeat Datastores). Ahora HA utiliza múltiples
caminos de comunicación a través de la red y del almacenamiento. Esto permite un mayor nivel de
redundancia, y también permite una mejor identificación del estado de salud de un nodo y las MVs
que corren sobre él.

Usabilidad

Las mayorías de las mejoras de HA en vSphere 5 no son visibles al usuario final, hay algunas
mejoras en la interfaz de usuario, que permite identificar rápidamente el rol (maestro/esclavo) que
está cumpliendo cada nodo en el clúster.

Conclusión

Como podemos ver, se incluyen mejoras importantes en la arquitectura de HA, lo que permite contar
con una solución de alta disponibilidad más robusta, confiable y eficiente, lo cual nos permitirá
contar con una mejor protección para nuestros servicios criticos, ya sea en grandes corporaciónes, asi
como también en la pequeña y media empresa, si consideramos que HA se encuentra disponible a
partir de la versión Essential Plus.
Máximos de configuración de vSphere 5
Enviado por Noelia Alentorn Frank

Luego de las mejoras impresionantes que se vieron en los máximos de configuración de vSphere
cuando pasamos de la versión 4 a la 4.1, se generó mucha expectativa con respecto a los máximos
que manejaría la versión 5.

Dado que estos números son muy valiosos para la toma de decisiones diaria del administrador
VMware, me gustaría facilitarles un pequeño “ayuda-memoria” con los parámetros más
frecuentemente consultados en materia de máximos de configuración de VMware que se han visto
modificados en esta edición:

Como se puede apreciar a simple vista los números no son tan shockeantes como en la edición
anterior, donde las mejoras se veían principalmente a nivel vCenter, debido al cambio de arquitectura
de 32 a 64 bits. Me han llegado comentarios de colegas que se mostraban un poco decepcionados por
las pocas mejoras que había en este aspecto. Sin embargo, VMware en esta versión ha introducido
numerosas mejoras y novedades a nivel prestaciones, como se puede ver online y en numerosos posts
de mis compañeros, abajo listados:

 Mejoras de performance en vSphere5


 vSphere5: Lo nuevo en networking
 Storage DRS en vSphere 5
Se puede concluir con sólo mirar y comparar los documentos de máximos de configuración de
vSphere 3.5, vSphere 4.0 y vSphere 4.1 que con el aprovechamiento completo de los 64-bits de la
arquitectura por parte del VMKernel y el vCenter, VMware se deshizo de importantes limitaciones
que acarreaba hace tiempo por estar atados a los 32-bit, y sentó las bases para lanzar la nueva suite
de cloud computing que estamos viviendo en esta nueva etapa en tan sólo 3 años. Es lógico entonces
que en este punto de la historia decida enfocarse en la incorporación de nuevas funcionalidades en
lugar de ampliar aún más las capacidades de la suite, que realmente sobran: ¿Cuántos sistemas
operativos soportan hoy por hoy más de 32 vCPUs? ¿Cuántas máquinas virtuales tenemos en nuestro
ambiente que requieran más de 4GB, 8GB, o como muchísimo… 12GB de RAM? Por otro lado,
todos tenemos datastores con cargas desbalanceadas, problemas de performance en dichas LUNs
debido a los bloqueos SCSI, ¡Todos queremos vMotion de larga distancia!

Creo que después de las mejoras sorprendentes que hemos visto desde 2009, es importante darle a
VMware un respiro en el aspecto de ampliación de máximos y permitirles seguir mejorando la
performance de la plataforma actual y las funcionalidades que le hacen más fácil el trabajo diario a
los administradores. Por lo menos así lo veo yo…

Links de referencia

Para aquellos que quieran interiorizarse un poco más en las técnicas y la historia de la virtualización
sobre x86, les dejo el link al documento Software and Hardware Techniques for x86 Virtualization
que es un clásico que ninguna persona nueva en el mundo de la virtualización sobre x86 debería
dejar de leer, independientemente de cuál sea su producto de cabecera.

Por otro lado, si necesitan acceder a la información completa de máximos de configuración de


vSphere 5, la Biblia se encuentra en el siguiente enlace: Configuration Maximums for VMware
vSphere 5

Mejoras de Performance en vSphere 5


Enviado por Patricio Cerda
Con el lanzamiento de vSphere 5 se obtienen una serie de mejoras en la performance de nuestra
plataforma VMware, las cuales detallaremos a continuación.

Las mejoras de performance se dividen en 5 pilares, los cuales detallaremos brevemente:

 Mejoras a nivel de vCenter Server


 Mejoras a nivel de capacidad de computo
 Mejoras a nivel de almacenamiento
 Mejoras a nivel de networking
 Mejoras a nivel de vMotion

Mejoras a nivel de vCenter Server


vSphere 5 incluye mejoras en la escalabilidad que permite, por ejemplo, un mayor número de
máquinas virtuales por clúster. Aún con esta mayor escalabilidad, vSphere 5 incluye una serie de
mejoras en la performance relacionadas a las operaciones de administración en vCenter Server, así
como también en las funcionalidades relacionadas con High Availability (HA):

 Hasta un 120% de mejora en el throughput (operaciones/minuto) de las operaciones de


administración en vCenter. Por ejemplo, en el encendido/apagado/migración/registro de
máquinas virtuales.
 Una mejora del 25% al 75% en la latencia de las operaciones de administración, dependiendo
del tipo de operación.
 La configuración de un cluster HA puede ser realizada hasta 9 veces más rápido en vSphere
5, dependiendo del tamaño del cluster.
 En vSphere 5 se puede realizar el failover de hasta un 60% más de máquinas virtuales, en el
mismo periodo, respecto a versiones anteriores
 El tiempo mínimo de recuperación, desde la falla hasta que la primera máquina virtual es
reiniciada, ha sido mejorado en un 44.4%
 El tiempo promedio para el failover de máquinas virtuales ha sido mejorado en un 14%.
 El Slot size por defecto para la CPU ahora es de solo 32Mhz, permitiendo un mayor radio de
consolidación en comparación con versiones anteriores.

Mejoras a nivel de capacidad de computo

 vSphere 5 soporta hasta 32 vCPU y hasta 1TB de vMEM por máquina virtual, lo cual permite
que aplicaciones Tier 1 y de misión critica alcancen una mayor performance.
 Mejoras en el scheduler de la CPU en arquitecturas Intel SMT, permitiendo una mejora del
10% al 30% en la performance de las aplicaciones, dependiendo de la carga de trabajo.
 En vSphere 5 se incluye Virtual NUMA o vNUMA, que expone la topología NUMA al
sistema operativo de las máquinas virtuales, permitiendo que el sistema operativo y
aplicaciones hagan un mejor uso de la arquitectura NUMA del host. Se requiere Virtual
Hardware versión 8.
 vSphere 5 permite a los usuarios configurar un caché para Swap en un disco de estado sólido
o SSD. De esta manera, cuando Transparent Page Sharing, Ballooning y la Compresión de
memoria no han sido suficientes para obtener los recursos de memoria requeridos, el proceso
de swapping se realizará en ésta cache en vez de utilizar un archivo normal de swap en disco.
Esto permite una mejora importante en la performance reduciendo la latencia en escenarios
de escasez de memoria.
Mejoras a nivel de almacenamiento

 vSphere 5 Storage I/O control ahora soporta NFS y “shares” basados en NAS. Esto permite
regular dinámicamente el acceso de múltiples máquinas virtuales a recursos de I/O
compartidos en un clúster, basados en los shares asignados a las máquinas virtuales.

Mejoras a nivel de Networking

 vSphere 5 incluye mejoras en NetIOC, donde agrega funcionalidades de QoS (802.1p) y


permite la creación de Resource Pools para limitación de anchos de banda.
 vSphere 5 incluye splitRxMode, una nueva funcionalidad para dividir el costo de la
replicacion de paquetes para multicast entre varias CPUs físicas, permitiendo que vSphere 5
sea una plataforma altamente escalable y eficiente para receptores de multicast. En versiones
previas, la replicación de paquetes para multicast es hecha usando un único contexto, y en
escenarios con una alta densidad de máquinas virtuales por host, esto puede provocar cuellos
de botella y causar perdida de paquetes. SplitRxMode puede ser habilitado en una virtual
NIC VMXNET3, y permite dividir el costo del procesamiento de paquetes recibidos en
multiples contextos, mejorando significativamente la performance de multicast.

Mejoras a nivel de vMotion

 vSphere 5 permite que vMotion sature en forma efectiva el ancho de banda de un adaptador
de red 10GbE durante una migración, reduciendo los tiempos de transferencia en una
operación de vMotion.
 Se permite el uso de multiples adaptadores de red para las operaciones de vMotion, donde el
VMkernel balanceara la carga del trafico de vMotion, en forma transparente, sobre todas las
vmknics con vMotion habilitado, tratando de saturar todas las conexiones para distribuir el
trafico de vMotion, incluso en operaciones unicas de vMotion.
 Se incluye una nueva funcionalidad de “Metro vMotion” que provee de una mejor
performance sobre redes con alta latencia y aumenta los limites de latencia para redes de
vMotion de 5ms a 10ms.
 Se incluye soporte de Live Migration para Storage (Storage vMotion) con el uso de I/O
Mirroring. Esto permite una mayor movilidad de máquinas virtuales, mantenimiento con
zero downtime, y balanceo de carga de almacenamiento manual y automatico.

Conclusión

Como podemos ver, vSphere 5 incluye un numero importante de mejoras a nivel de performance, lo
cual nos permite virtualizar aplicaciones de cualquier envergadura, tanto en pequeños ambientes,
como en grandes implementaciónes con aplicaciones de mision critica y Tier-1.

Para mayor información, pueden revisar el siguiente White Paper de VMware con todo el detalle de
las novedades de vSphere 5, relacionados con la performance:

http://www.vmware.com/files/pdf/techpaper/Whats-New-VMware-vSphere-50-Performance-
Technical-Whitepaper.pdf
vSphere 5: Lo nuevo en Networking
Enviado por Pablo Scheri

Con el nuevo release de vSphere 5 son varias las funcionalidades que se agregan. Entre ellas, y las
que vamos a describir en este post, las de networking.

VMware esta haciendo una apuesta muy grande en las nuevas funcionalidades, tratando de agregar
la mayoría de las características que obligaban al administrador de redes a tener que optar por un

Nexus 1000v, con su respectivo desembolso de capital adicional.

A continuación las nuevas características con una breve descripción:

 Soporte para LLDP: brinda de esta manera ínter operabilidad con equipos Cisco y no Cisco
para advertising y descubrimiento de equipos “vecinos” (funcionalidad disponible solo en
vDS).
 Soporte para NetFlow: punto clave que agrega la posibilidad de enviar información de
tráfico a un colector de NetFlow para reportes y monitoreo, nuevamente, esta funcionalidad
se encuentra disponible únicamente en vDS.
 Soporte para Port Mirror: la funcionalidad DVMirror brinda la posibilidad de copiar
trafico de puertos virtuales a virtuales o puertos virtuales a físicos. Extremadamente útil para
monitoreo por medio de IDS y Troubleshooting.
 Mejoras en NetIOC: agrega funcionalidades de QoS (802.1p) y permite la creación de
Resource Pools para limitación de anchos de banda.
 Mejoras generales en vDS: se simplifica sustancialmente la configuración de MTUs y se
agrega la posibilidad de realizar modificaciones masivas a configuraciones especificas de los
port-groups, simplificando así las tareas de administración.

Quien debe seguir eligiendo Cisco Nexus 1000v?

 Quien desee administrar su infraestructura Cisco con sus herramientas Cisco ya existentes,
pudiendo así homogeneizar la red.
 Quien desee armar links LACP y vPC, ojo, los switches de VMware soportan LAG pero no
LACP.
 Quien desee más opciones de balanceo de carga entre los Switches virtuales y los físicos.
 Quien desee utilizar DSCP y TOS para QoS sobre Layer 3.
 Quien desee configurar ACLs a los puertos virtuales.
 Quien desee utilizar NetFlow v9 y SNMP v3.
Storage DRS en vSphere 5
Enviado por Pablo Scheri

Uno de los campos en que VMware puso más énfasis a la hora


de planear vSphere 5.0 es sin lugar a duda el Storage. Esto se debe a varios factores como ser la baja
performance que otorgan hoy día los discos mecánicos y los elevados precios de los SSD, la
dificultad de administrar de manera eficiente los espacios disponibles y la poca o casi
nula integración entre Storage y la plataforma virtual.

Sin embargo, en mi opinión, una de mayores dificultades a la hora de administrar la plataforma


erradica en la dificultad que propone la detección manual de cuellos de botella, que deriva en
problemas de latencia por encolamiento de comandos SCSI y por consiguiente disminuciones
importantes de performance en las VMs.

Para solucionar estos problemas, VMware viene desarrollando una gran cantidad de funcionalidades
desde la versión de vSphere 4.1. En aquel entonces, las estrellas fueron las vStorage API for Array
Integration (VAAI) y Storage I/O Control (SIOC), en vSphere 5.0 se agregó VMware Aware Storage
APIs (VASA) y Storage DRS (SDRS).

¿Qué es Storage DRS?

Storage DRS (desde ahora SDRS) basa todo su funcionamiento en Storage vMotion, es una utilidad
que permite realizar un balanceo automático de las VMs almacenadas en dos o más Datastores. El
balanceo es realizado mediante la medición de espacio ocupado y latencia de respuesta en mili-
segundos (ms) de cada uno de los datastores que componen un Datastore Cluster.
Requisitos de Storage DRS

 Licencias Enterprise Plus.


 Sistema de archivos VMFS5.
 Block Level Storage (iSCSI, FC o FCoE).
 Storage I/O Control habilitado.
 Los datastores deben componer un Datastore Cluster, dichos datastores, no deben ser accedido por
Hosts ESXi pertenecientes al cluster.
 Deseable: Integración con VAAI y VASA.

Storage DRS técnicamente

SDRS puede funcionar en dos modos, manual o automático. En el primer caso, realiza
recomendaciones de balanceo, pero las deja para que el administrador de la plataforma las tome
en consideración y decida cuando aplicarlas, en automatico, realiza las migraciones sin
consentimiento del administrador, pero respetando los threshold configurados. Ambos modos
brindan una recomendación de Initial Placement.

Los thresholds a configurar son:

 Espacio utilizado: default 80%


 Latencia de I/O: default 15ms
 Porcentaje de mejora de performance para realizar la migración: default 5%
 Tiempo entre chequeos: default 8 horas
 Agresividad del desbalanceo por I/O: default tiende a agresivo

Adicionalmente es posible configurar políticas de afinidad, anti-afinidad y modo mantenimiento de


los datastores. Esto tiene un funcionamiento muy similar al ya existente en DRS en los Clusters de
Hosts.

Para enumerar algunas contras, podríamos decir que no esta soportado su uso con View ni con
vCloud Director en ninguna de sus versiones.

DRS & DPM… ¿Green Computing?


Enviado por Javier Ledesma

Nunca nos preguntamos…

¿Por qué tengo encendido todos los servidores siendo que no están siendo usados en su totalidad?

¿Mi consumo energético es el correcto? – ¿Puedo mejorarlo?


¿La temperatura de mi Datacenter es la correcta? – ¿Puedo ayudar a disiparla?

A continuación paso a detallar VMware Distributed Resource Scheduler (DRS) y su función


innovadora de VMware Distributed Power Management (DPM), que nos ayudaran a comprender de
que manera puedo asistir a mis recursos y/o hardware.

VMware Distributed Resource Scheduler (DRS)

VMware Distributed Resource Scheduler (DRS) agrupa la capacidad de computing de un conjunto


de servidores en pools de recursos lógicos y asigna de forma inteligente los recursos disponibles
entre las máquinas virtuales en función de reglas predefinidas que reflejan las necesidades de cada
uno como así tambien la evolución de las prioridades.

VMware Distributed Power Management (DPM)

VMware Distributed Power Management (DPM), que se incluye con VMware DRS, automatiza la
gestión de la alimentación y reduce el consumo de electricidad en todo el conjunto de servidores de
un clúster de VMware DRS.

Ventajas

• Asignación de recursos dedicados a las unidades de negocio, además de una mejor utilización del
hardware gracias a la agrupación de recursos .

• Mantenimiento de los servidores sin interrupciones del servicio.

• Reducción de hasta un 20 % o más de los costes energéticos.

• Alineación automática de los recursos con los objetivos empresariales priorizando los recursos para
las aplicaciones más importantes.

• Mejora de la eficacia operativa del centro de datos al optimizar automáticamente la utilización del
hardware y la capacidad de respuesta en tiempo real a la evolución de las condiciones.

Especificaciones del producto y requisitos del sistema

Se require de las siguientes productos.

 VMware ESX,ESXi
 VMware vCenter Server
 VMware vMotion
 Licencias Enterprise Plus.

VMware DRS y su funcionamiento…

¿Qué es VMware DRS?


VMware DRS balancea de forma dinámica la capacidad de computing de un conjunto de recursos de
hardware agrupados en pools de recursos lógicos, supervisando continuamente la utilización de los
pools de recursos y asignando de forma inteligente los recursos disponibles entre las máquinas
virtuales en función de las reglas predefinidas que reflejan las necesidades empresariales y la
evolución de las prioridades.

Cuando una máquina virtual experimenta un aumento de la carga, VMware DRS asigna
automáticamente más recursos redistribuyendo las máquinas virtuales entre los servidores físicos del
pool de recursos. VMware DRS permite a los departamentos de IT:

• Alinear los recursos con los objetivos empresariales priorizando los recursos para las aplicaciones
más importantes.

• Optimizar de forma automática y continua la utilización del hardware para responder a las
condiciones cambiantes.

• Asignar recursos dedicados a las unidades de negocio y beneficiarse de una mejor utilización del
hardware mediante la agrupación de los recursos.

• Realizar el mantenimiento de los servidores sin interrupciones del servicio.

¿Cómo funciona VMware DRS?

VMware Distributed Resource Scheduler (DRS) agrupa la capacidad de computing de un conjunto


de servidores en los pools de recursos lógicos y asigna de forma inteligente los recursos disponibles
entre las máquinas virtuales en función de reglas predefinidas que reflejan las necesidades
empresariales y la evolución de las prioridades.

VMware DRS permite a los usuarios definir las reglas y las políticas que determinan cómo se
comparten los recursos entre las máquinas virtuales, así como las prioridades de asignación de esos
recursos entre las diversas máquinas virtuales. Cuando se produce un aumento de la carga en una
máquina virtual, VMware DRS evalúa primero su prioridad, en función de las políticas y reglas de
asignación de recursos definidas, y si está justificado asigna recursos adicionales. La asignación de
más recursos se puede efectuar migrando la máquina virtual a otro servidor con más recursos
disponibles, o bien migrando otras máquinas virtuales a otros servidores para crear más espacio en el
mismo servidor para la máquina virtual. Con VMware VMotion la migración en caliente de
máquinas virtuales a otros servidores físicos es un proceso totalmente transparente para los usuarios
finales.

VMware DRS se puede configurar para funcionar en modo automático o manual. En modo
automático, VMware DRS determina la mejor distribución posible de las máquinas virtuales entre
los diferentes servidores físicos y migra automáticamente las máquinas virtuales a los servidores
físicos más apropiados. En modo manual, VMware DRS ofrece una recomendación para la
colocación óptima de las máquinas virtuales y deja que el administrador del sistema decida si ese
cambio es conveniente.

La flexibilidad de la organización jerárquica de los pools de recursos permite a los administradores


alinear los recursos de IT disponibles con las necesidades empresariales. Cada unidad de negocio
puede recibir recursos de IT dedicados y, al mismo tiempo, beneficiarse de la eficacia de la
agrupación de recursos. Los rigurosos privilegios de acceso permiten delegar las tareas de gestión
rutinarias del pool de recursos de una unidad de negocio al administrador del sistema de esa unidad.

VMware DPM y su funcionamiento

¿Qué es VMware DPM?

VMware Distributed Power Management (DPM) es una función innovadora de VMware DRS que
supervisa continuamente las necesidades de recursos en un clúster de VMware DRS. Cuando las
necesidades de recursos del clúster disminuyen durante los períodos de baja utilización, VMware
DPM consolida las cargas de trabajo para reducir el consumo de energía del clúster.

Cuando las cargas de trabajo necesitan más recursos durante los períodos de mayor utilización,
VMware DPM vuelve a activar los hosts apagados para asegurar los niveles de servicio requeridos.

VMware DPM permite a los departamentos de IT:

• Reducir los costes de energía y de refrigeración del centro de datos

• Automatizar la gestión de la eficiencia energética del centro de datos

¿Cómo funciona VMware DPM?

VMware DPM es un componente de VMware DRS que propone recomendaciones o apaga o


enciende los hosts con el fin de ahorrar energía. Para generar estas recomendaciones compara la
capacidad disponible en un clúster de DRS con la demanda de recursos de las máquinas virtuales y
los requisitos de capacidad del búfer definidos por el administrador. Si DPM detecta un número
excesivo de hosts encendidos, consolida las máquinas virtuales en unos pocos hosts y apaga el resto
de los hosts. VMware DPM volverá a activar los hosts apagados para satisfacer las necesidades de
las máquinas virtuales en un intervalo de tiempo predefinido o en el caso de que detecte un aumento
de la carga.
Conclusión:

Pensándolo eficientemente, el complemento DPM es escencial si ponemos nuestra énfasis a


minimizar el impacto ambiental, maximizando su viabilidad económica (green computing), consigo
el ahorro de energía, refrigeración y recursos en su centro de Datos. Siempre pendiente de DRS que
cuantifica un plus administrativo.

vSphere 5: Host Power Management (HPM)


12/14/2011 04:30:00 PM Patricio Cerda No comments

Hola a todos,

Una de las nuevas features incluidas en vSphere 5, y de la que poco se ha hablado, es vSphere Host Power
Management o simplemente HPM.

HPM es una tecnica que permite ahorrar energia poniendo ciertas partes de un servidor o dispositivo en un
estado de energia reducido, cuando el servidor o dispositivo se encuentra inactivo o no necesita funcionar a
plena capacidad.

HPM no debe confundirse con DPM (Distributed Power Management), el cual distribuye MVs entre hosts
fisicos en un cluster, intentando liberar uno o más hosts para apagarlos completamente. HPM ahorra energia
manteniendo los hosts encendidos en todo momento. Ambas features pueden ser utilizadas
simultaneamente permitiendo un ahorro de energía mayor.

HPM administra la energia utilizando los estados de performance y energia de Advanced Configuration and
Power Interface (ACPI). Con el lanzamiento de vSphere 5, la politica de administración de energia por
defecto está basada en DVFS (Dynamic Voltage and Frequency Scaling). Esta tecnologia utiliza los estados
de performance del procesador y permite que parte de la energia sea ahorrada utilizando el procesador a una
menor frecuencia y voltaje, mientras aun se deja suficiente tiempo de CPU disponible para mantener niveles
de performace aceptables en la mayoria de los ambientes.

Host Power Management en ESXi 5


vSphere HPM en ESXi 5 se encuentra diseñado para reducir el consumo de energia en los hosts ESXi.

ESXi 5 incluye cuatro diferentes politicas de energia que están basadas en el uso de los estados de
performance ACPI (P-States) del procesador, y en los estados de energia ACPI (C-States) del procesador.

Los P-States pueden ser utilizados para ahorrar energia cuando la carga de trabajo en ejecución sobre el
host no requiere una capacidad completa de CPU. Los C-States pueden ahorrar energia solo cuando la CPU
tiene una cantidad significativa de tiempo disponible, por ejemplo, cuando la CPU está esperando que una
operación de I/O se complete.

Politicas de Energia HPM en ESXi5


ESXi cuenta con las siguientes politicas de energia:

 High Performance: Esta politica maximiza la performance, y no utiliza ninguna funcionalidad de


gestión de energia. Esta es la politica por defecto para ESX/ESXi 4.x.
 Balanced: Esta politica está diseñada para reducir el consumo de energia del host, mientras se tiene
poco o ningún impacto en la performance. Esta es la politica por defecto para ESXi 5
 Low Power: Esta politica está diseñada para reducir en forma más agresiva el consumo de energia
del host, al riesgo de reducir la performance.
 Custom: Esta politica parte con la misma configuración que la politica "Balanced", pero permite que
parametros individuales sean modificados. Si el hardware del host no permite al sistema operativo
gestionar la energia, el unico parametro disponible es "Not Supported".
Para cambiar la politica a utilizar, deben ir a la sección "Configuration" del Host, y luego seleccionar Power
Management en la sección "Hardware".

Espero que les haya resultado interesante. Si quieren saber más de HMP, incluyendo su funcionamiento y
best practices, pueden revisar el siguiente Whitepaper:

vSphere 5: Cambios al modelo de licenciamiento.


8/03/2011 05:43:00 PM Patricio Cerda No comments

Con el lanzamiento de vSphere 5, uno de los puntos que generó mayor revuelo, y no precisamente con los
mejores comentarios, fue el cambio al licenciamiento en vSphere 5.

Anteriormente publiqué mi punto de vista respecto a este nuevo tipo de licenciamiento, el cual en muchos
casos generaba un aumento en el costo del licenciamiento para aquellos clientes que quisieran migrar desde
vSphere 4 a vSphere 5.

Pues bien, aparentemente VMware ha puesto atención a la ola de criticas que surgieron producto de este
nuevo modelo de licenciamiento desde la blogosfera, en las comunidades VMware, así como también por
parte de los mismos Partners y Clientes Vmware. El día de hoy VMware ha publicado una modificación al
nuevo modelo de licenciamiento, el cual se refleja en los siguientes cambios:

 Se ha aumentado el Entitlement de vRAM en todas las ediciones vSphere 5. En el caso de las


licencias Enterprise y Enterprise Plus, este aumento ha sido del 100%, duplicando la asignación
inicial de vRAM por CPU.
 Se ha limitado la cantidad de vRAM que será contabilizada en las MVs de gran tamaño. Esto está
orientado a que ninguna MV, nisiquiera aquellas que utilicen 1TB de vRAM, tengan un costo superior
al de una licencia Enterprise Plus. De este modo, el máximo de vRAM que será contabilizado por
MV será de 96GB, aún cuando la MV tenga una asignación mayor de vRAM.
 Se ha ajustado el modelo de licenciamiento para ser mucho más flexible respecto al aumento
temporal del Workload en una plataforma VMware, así como también con los periodos peaks
temporales que son comunes en plataformas de Test y Desarrollo. Esto se traduce en que se hará
un calculo promedio de la vRAM consumida durante los últimos 12 meses, en vez de registrar el
uso máximo de vRAM.

Finalmente, se ha introducido la versión vSphere Desktop, dirigido al licenciamiento de vSphere en


ambientes de escritorio. La edición vSphere Desktop no tiene ningún Entitlement de vRAM y permite a los
clientes comprar vSphere por usuario.

Mayor detalle lo pueden encontrar en el siguiente link con el anuncio oficial:

http://blogs.vmware.com/rethinkit/2011/08/changes-to-the-vram-licensing-model-introduced-on-july-12-
2011.html

Ahora habrá que analizar este nuevo escenario, y verificar que efectivamente en la mayoría de los clientes no
existirá un impacto real en el costo de licenciamiento frente a un futuro upgrade a vSphere 5.

De todas maneras, en lo personal creo que los cambios introducidos por VMware al modelo de licenciamiento
van por la linea correctas.
Licencias y Versiones de vSphere 5.0
Enviado por Natalia Guaragno (3) Comment

Ya sabíamos que el licenciamiento de versiones anteriores de vSphere han sido por socket habiendo
restricciones, según la versión, de uso en el número de cores. Por ejemplo en las versiones Advanced
y Enterprise Plus de vSPhere 4.1 no podían utilizar más de 12 cores por procesador. También tenían
restricciones de capacidad de RAM física (256 GB) para las versiones Standard, Advanced y
Enterprise.

El modelo nuevo de asignación de licencias de vSphere 5 elimina asignaciones físicas restrictivas


de derechos de los cores de CPU y la memoria RAM física por servidor. El modelo sigue siendo
por procesador, pero con un límite de vRAM, o sea la memoria asignada para cada VM.
Tengamos en cuenta que se contabilizará la vRAM (descontándose del total de vRAM) de las VMs
que estén encendidas.

Essentials Enterprise
Licencia Essentials Standard Enterprise
Plus Plus

vRAM por
32GB 32GB 32GB 64GB 96GB
cada licencia

*Cantidad de vRAM asignada a cada licencia por Procesador.

Esta vRAM asignada puede compartirse entre varios anfitriones (Pool de vRAM). No hay
limitaciones en cuanto a la manera en que la vRAM se consume en VMs y CPU, ya que cuando se
licencia y se gestiona un conjunto de Hosts con vCenter, los derechos del uso de la vRAM se suman
para que puedan ser utilizados entre los diferentes Host asociados a ese vCenter. Así que la cantidad
de vRAM que consuman las VMs activas en una CPU podrán superar la asignación inicial que tiene
la licencia de vSPhere 5.0 asignada a esa CPU, mientras que el consumo de vRAM total de esas
VMs administradas en ese vCenter no exceda el total disponible de vRAM. Utilizando estos pools de
vRAM se paga por lo que se consume el modelo de licenciamiento de vSphere 5.0 se orienta al
concepto de ITaaS.

Qué nos propone VMware para aumentar la capacidad de vRAM en el pool?

 Agregar más licencias de CPU de vSphere de la misma edición


 Actualizar las licencias de CPU a una edición de Vsphere con una asignación de vRAM Superior

Comparemos el modelo de Licencias de vSPhere 4.1 con vSphere 5.0


Tengamos en cuenta que la versión Advanced desaparece en vSphere 5.0 quedando el siguiente
escenario:
 Comparemos las Ediciones de vSphere 5

 Y ahora los Kits de vSphere 5.0


Conclusiones

Para aquellas pequeñas empresas que quieran comenzar a bucear en el mundo de la virtualización es
recomendable empezar con los kits Essential o Essential Plus que son soluciones All-in-one.

Para los clientes de medianas empresas que son nuevos en este mundo, los Acceleration Kits son una
solución en forma de bundle que combina una edición de VMware vSphere con VMware vCenter
Server.

Y por último para empresas más grandes y de mayor complejidad se recomienda las versiones
Enterprise y Enterprise Plus.