Está en la página 1de 128

Virtualizacin con

VMware vSphere

eBook
por
Jos Mara Gonzlez

Jos Mara Gonzlez


info@jmgvirtualconsulting.com
http://www.jmgvirtualconsulting.com
@jmgconsulting

Captulo 1. Primeros pasos en la certificacin VMware vSphere VCP 3


Captulo 2. Instalacin vSphere ...................................................................... 7
Captulo 3. Red en vSphere ............................................................................ 24
Captulo 4. Almacenamiento en vSphere .................................................... 40
Captulo 5. VMware vCenter Server ............................................................... 55
Captulo 6. Mquinas Virtuales en vSphere ............................................... 70
Captulo 7. Control de acceso en vSphere ................................................... 83
Captulo 8. Gestin de recursos en vSphere................................................ 92
Captulo 9. Monitorizacin de recursos en vSphere ................................. 96
Captulo 10. Funcionalidades Enterprise en vSphere ........................... 104
Gracias y Cierre .................................................................................................. 127

Captulo 1. Primeros pasos en la certificacin VMware vSphere VCP

Por qu la virtualizacin es tan importante?


En 1998, VMware descubri una tecnologa que fue considerada hasta
entonces algo imposible de lograr, virtualizar la plataforma x86. Esta solucin
fue una combinacin de traduccin binaria (binary translation) y ejecucin
directa (direct execution) directamente en el procesador, lo que permiti que
mltiples sistemas operativos Guest se pudiesen ejecutar a la vez en el
mismo hardware fsico, totalmente aislados unos de otros y con una
"sobrecarga" en la capa virtualizacin relativamente pequea.
El ahorro que decenas de miles de empresas han obtenido con el despliegue
de esta tecnologa, est impulsando, de una forma pronunciada y rpida, la
adopcin de la tecnologa de virtualizacin desde el centro de datos hasta el
escritorio.
Resolver el problema de la proliferacin de servidores, la falta de espacio, el
consumo de energa y la refrigeracin en las salas de servidores mediante la
sustitucin de servidores de aplicaciones individuales por mquinas virtuales
consolidadas en un nmero mucho menor de equipos fsicos, son slo
algunos de los principales beneficios de la virtualizacin de servidores.
Otros de los beneficios de la virtualizacin son:
Mejor uso del hardware del servidor mediante el despliegue de nuevos
servidores en mquinas virtuales, evitando aadir ms servidores fsicos
infrautilizados al centro de datos.
Reducir drsticamente el tiempo de aprovisionamiento de nuevos servidores
en mquinas virtuales, pasando a minutos en lugar de das o semanas
necesarias para aprovisionar un servidor fsico.
Asimismo, como la capacidad de procesamiento en los servidores ha
aumentado de manera constante en los ltimos aos, y no cabe duda que
seguir aumentando, la virtualizacin ha demostrado ser una tecnologa muy
potente para simplificar el despliegue de software y servicios, dotando al
Centro de Datos de mucha ms agilidad, flexibilidad y, lo que quizs haya
pasado desapercibido pero no por ello es menos importante, la reduccin
significativa de los costes energticos y el impacto medio ambiental.

Cmo conseguir la certificacin VCP ?


Para obtener la titulacin VMware Certified Professional debes seguir tres
pasos muy sencillos:
1. Participar en un curso autorizado y oficial VMware para adquirir
experiencia. Este curso es impartido por un instructor oficial VMware, el cual
te enseara las mejores prcticas en la instalacin, configuracin y gestin de
VMware vSphere
Los cursos aceptados son:
VMware vSphere 6.x: Install, Configure and Manage v6
VMware vSphere 6: Whats New (Este curso es necesario solo para los
candidatos
que
ya
tengan
la
certificacin
oficial VCP5)
2. Adquirir experiencia con los productos VMware. Aquellos profesionales
que no han tenido experiencia previa con los productos VMware, les
resultar
ms
difcil
pasar
el
examen
VCP6.
3. Inscribirse y aprobar el examen oficial. Para inscribirse en el examen VCP
6 (VMware Certified Professional), has de darte de alta en VMware en la
siguiente direccin:
http://www.jmgvirtualconsulting.com/Formacion/VMware/VMwarevSphere-ICM-Install-Configure-and-Manage-6
Para ver los cursos autorizados oficiales por VMware, donde se imparten los
cursos oficiales, puedes visitar la siguiente direccin web:
http://www.jmgvirtualconsulting.com/formacion

Algunas preguntas frecuentes sobre VMware


VCP
Cul es la Hoja de Ruta para obtener la certificacin VCP en vSphere?
Hay cuatro caminos posibles para lograr la certificacin VCP6 en vSphere
6.
1. Si eres nuevo en el mundo VMware:

Asiste al curso oficial VMware vSphere 6: Install, Configure and


Manage.

Aprueba el examen VCP6 en vSphere 6.

2. Si eres actualmente un VCP3 en VMware Infrastructure 3:

Asiste al curso oficial VMware vSphere 6: Install, Configure and


Manage o al curso oficial Whats New 5 a 6.

3. Si eres actualmente un VCP4 en VMware ESX/ESXI 4.x:

Asiste al curso oficial VMware vSphere 6: Install, Configure and


Manage

4. Si no eres VCP pero has asistido a uno de los cursos requeridos para la
certificacin oficial VCP4 (VMware Install, Configure and Manage):

Asiste al curso VMware vSphere 5: Whats New 5.


Aprueba el examen VCP en vSphere 4.x.
Aprueba el examen VCP en vSphere 5.

Puedes ver los plazos y el Last minute en la siguiente URL:


http://www.jmgvirtualconsulting.com/formacion
Cmo puedo saber si el curso es oficial VMware?
Los cursos que no estn autorizados por VMware, no cumplen los requisitos
para la certificacin VCP5 en vSphere 6. Asegrate de asistir a un curso
oficial VMware confirmando que dicho curso aparece en la pgina web de
VMware:
http://mylearn.vmware.com/mgrreg/index.cfm
Realmente necesito asistir al curso oficial para poder obtener la certificacin
VCP6 en vSphere 6?
El curso oficial VMware es un requisito obligatorio para la certificacin.
VMware no hace ninguna excepcin en este requisito.
Cmo me registro para el examen de certificacin VCP6 en vSphere 6?
El examen VMware Certified Professional es administrado por Pearson VUE,
un centro autorizado externo. Pearson VUE tiene ms de 3.500 centros de
exmenes autorizados en todo el mundo.
Cuntas preguntas hay en el examen VCP6 de vSphere 6?
En el examen hay 125 preguntas tipo test. Tienes 90 minutos para responder
a todas las preguntas. En pases donde el ingls no es el primer idioma, los
candidatos recibirn automticamente 30 minutos adicionales. Necesitas

una puntuacin de 300 o ms para poder aprobar el examen, siendo 500 la


puntuacin mxima.
Qu ocurre si suspendo el examen?
Podrs intentarlo de nuevo siempre que quieras, pero tendrs que esperar 7
das antes de intentarlo otra vez. Cada intento exige un nuevo pago para
cubrir el coste del examen.
Cmo puedo saber lo que abarca el examen VCP6?
En la direccin web adjunta, podrs encontrar una gua oficial VMware
(VCP6 Exam Blueprint) sobre la materia que se cubre en el examen. Usa esta
gua como referencia para preparar el examen: (requiere login)
http://mylearn.vmware.com/portals/certification/
Hay alguna forma de practicar el examen antes de presentarse al examen oficial?
VMware ha puesto a disposicin del pblico en general, una direccin web
donde puedes practicar antes de presentarte al examen oficial:
http://mylearn.vmware.com/mgrSurvey/assessLogin.cfm

Recuerda que las preguntas mostradas en este simulacro, solo son


meramente orientativas. No obstante, te servirn para saber si ests
preparado para presentarte al examen o, por el contrario, si necesitas
estudiar un poco ms y retrasar la fecha del examen.

Captulo 2. Instalacin vSphere

En esta primera seccin vers una introduccin a la virtualizacin y la


instalacin de VMware vSphere ESXi, los mnimos y mximos tanto
soportados como certificados por VMware vSphere ESXi / vCenter
Server, la nueva versin de vCenter Server Appliance para entornos
Linux, as como los mnimos y mximos para las mquinas virtuales en
vSphere
Cmo es la virtualizacin con VMware vSphere?

Los servidores y los desktops cada da son ms potentes y el software de


virtualizacin de servidores ha demostrado, una vez ms, ser una tecnologa
indispensable para simplificar el centro de datos y dotarlo de inteligencia
propia.
En un entorno fsico tradicional, el sistema operativo y el software asociado
se estn ejecutando en un nico servidor fsico. Este modelo de una
aplicacin por servidor puede llegar a ser, y de hecho lo es en muchos casos,
inflexible e ineficiente. Esta relacin 1:1 precisamente es la que hace que
servidores de muchos centros de datos que estn infrautilizados, alcanzado
tan solo el uso de entre un 5 y un 10% de los recursos fsicos de dichos
servidores.
Asimismo, el aprovisionamiento de servidores fsicos en un centro de datos
es un proceso costoso en cuanto al tiempo necesario que se dedica a
aprovisionar un servidor fsico. En un entorno no virtualizado has de dedicar
tiempo a comprar nuevo hardware, enrackar los servidores, instalar el
sistema operativo y las aplicaciones.
Con el software de virtualizacin de servidores podemos transformar
hardware en software. De esta forma, podemos ejecutar diferentes sistemas
operativos, como por ejemplo Windows, Linux, Solaris, incluso MS-DOS,
simultneamente y en el mismo servidor fsico. As, cada contenedor, dotado

de su sistema operativo Guest o invitado, es llamado virtual machine


(mquina virtual en ingls) o VM como acrnimo.
Pero la virtualizacin de servidores, no es un software de simulacin o
emulacin, como el software de training de Cisco que simula un router de
Cisco para poder hacer prcticas, es un software de ejecucin.
Veamos ya algunas de las diferencias importantes de esta nueva versin de
VMware vSphere con las versiones anteriores.
Primero, y quizs uno de los cambios ms importantes en vSphere es que la
versin vSphere ESX ya no est disponible.
Tambin, ahora con la nueva versin de ESXi, es posible instalar la imagen
de un ESXi directamente en la memoria del host fsico usando una nueva
funcionalidad llamada vSphere Auto Deploy ESXi, de la cual hablaremos
ms adelante en este libro.
VMware vSphere incluye una nueva versin para su sistema de archivos
llamada VMFS-6 el cual, y a diferencia de las versiones anteriores, solo
incluye un block size de 1MB a la hora de formatear el datastore.
VMware vSphere Storage Appliance - de las siglas en ingls VSA - es otra
de las nuevas funcionalidades incluidas en la esta versin. Aunque
hablaremos de esta nueva funcionalidad ms adelante, recordarte que el VSA
Manager ha de ser instalado en tu servidor de vCenter para que puedas
configurar esta nueva herramienta.
VMware vSphere ESXi Dump Collector te permitir recoger todos los log
score dumps de tus servidores ESXi. Otra nueva funcionalidad en VMware
vSphere.
Para poder ver el video tutorial de instalacin de un servidor ESXi y muchos
ms videos tutoriales, entra en nuestra pgina web dedicada en exclusiva al
contenido multimedia extra de este manual en
http://www.josemariagonzalez.es/curso-online-gratuito - podrs ver ms de
100 videos gratis sobre virtualizacin con VMware vSphere.
Alternativamente, tambin puedes ver videos tutoriales de instalacin y
configuracin de VMware vSphere ESXi, as como manuales, artculos y posts
interesantes para preparar el examen de certificacin oficial VCP510 en la
pgina oficial del blog de virtualizacin y cloud computing en espaol en
http://www.josemariagonzalez.es/

Cmo es una mquina virtual en vSphere?

Una mquina virtual en VMware vSphere, es bsicamente un conjunto de


ficheros planos y binarios los cuales conforman la mquina virtual (MV)
completa con su sistema operativo y aplicaciones incluidas. Los ficheros ms
importantes que componen una mquina virtual son: el fichero de
configuracin (.vmx), el fichero de disco virtual (.vmdk), el fichero BIOS de la
mquina virtual (.nvram) y el fichero de log (.log).
El tamao del fichero swap de la mquina virtual (.vswp) es igual a la cantidad
de memoria RAM configurada en dicha mquina virtual. Recuerda que este
fichero se genera cuando la mquina virtual se arranca y se borra cuando se
apaga.
Con la nueva versin vSphere ESXi, el mximo nmero de discos virtuales
por host se ha aumentado a 2048 discos virtuales.
El tamao mximo de un disco virtual que puedes configurar en una mquina
virtual es de 2TB menos 512Bytes (espacio necesario del overhead del disco
virtual).!

En cuanto a la memoria RAM asignada a las mquinas virtuales, ahora es


posible asignar hasta un 1TB de memoria RAM fsica de tu host, el cual es el
tamao mximo que un host ESXi fsico puede tener configurado.
Asimismo, es posible tener hasta un mximo de 512 mquinas virtuales por
servidor ESXi. El nmero mximo de adaptadores SCSI para una mquina
virtual es de cuatro por mquina virtual.
A cada mquina virtual le puedes conectar un controlador IDE mximo al cual
puedes conectar hasta 4 dispositivos IDE.
En cuanto a dispositivos xHCI USB se refiere, es posible conectar hasta 20
controladores USB por mquina virtual. Sin embargo, solo es posible
conectar un dispositivo USB 3.0 por mquina virtual. A fecha de publicacin
de este libro, VMware vSphere ESXi 5 aun no soporta dispositivos USB 3.0
conectados directamente en el servidor. ESXi 6 ya soporta USB versin 3.0
Por ltimo, puedes configurar hasta 128MB de memoria RAM destinada a la
memoria de video por mquina virtual. Asimismo, el mximo nmero de
vCPUs (virtual CPUs) por host ESXi es de 2048, siendo 25 el nmero mximo
de vCPUs por core. El nmero mximo de vCPUs que podrs asignar a tus
mquinas virtuales es de 32 vCPUs. Nota que para llegar a este nmero de
vCPUs tambin el sistema operativo tiene que soportarlo.
Si te ests preparando el examen oficial de certificacin VCP, asegrate
bien que conoces los mnimos y mximos de una mquina virtual y preprate
para poder responder preguntas tipo como:
Cuntos puertos serie, paralelo, CDROMs, floppies, NICs, puede llegar a tener
una mquina virtual?
Asimismo, recuerda que aunque una mquina virtual puede tener como
nmero mximo 10 tarjetas virtuales, solo podrs conectar cuatro tarjetas
mximo durante la creacin de tus mquinas virtuales con el wizard de
creacin de mquinas virtuales de vCenter Server.
VMware vSphere permite crear mquinas virtuales usando dos wizards:
Typical y Custom. Si seleccionas el mtodo Typical, el wizard solo te pedir el
nombre, DataStore para la mquina virtual, sistema operativo y el tamao del
disco virtual, sin embargo no tendrs la opcin de configurar otras opciones
como el nmero de vCPUs, la versin del hardware virtual, la cantidad de
memoria y un largo etctera.
Por consiguiente, es una mejor prctica seleccionar la opcin Custom para
poder personalizar de una forma ms profunda la configuracin hardware de
tus mquinas virtuales.

Aviso: Recuerda que una mquina virtual en vSphere5 soporta hardware


virtual versin 8 y que este hardware virtual no es compatible con versiones
anteriores a vSphere 5. Por consiguiente, si quieres tener un entorno mixto,
ESX/ESXi 4.x y vSphere ESXi 5, has de dejar el hardware virtual de tus
mquinas virtuales con la versin 7 correspondiente a la versin 4 de
VMware vSphere ESX/ESXi 4. Para terminar con un dato ms sobre las
mquinas virtuales y su configuracin, el nmero mximo de virtual SCSI
targets por mquina virtual es de 60. La versin del hardware virtual en la
versin 6.0 es la 11!.
Para poder ver el video tutorial de instalacin de una mquina virtual en un
servidor ESXi, entra en nuestra pgina web dedicada en exclusiva a los videos
tutoriales gratuitos de contenido multimedia de en:
http://www.josemariagonzalez.es/curso-online-gratuito
Cul es la diferencia entre un software de virtualizacin basado en un
hipervisor y la virtualizacin basada en host?

La virtualizacin basada en hipervisor (tambin denominada Bare-Metal),


como por ejemplo vSphere ESXi, Microsoft HyperV o Citrix XenServer, est
instalada en un servidor fsico sin la necesidad de que exista un sistema
operativo (Windows o Linux) instalado previamente.
No obstante, la virtualizacin basada en host, como por ejemplo VMware
Server, VMware Workstation o VMware Fusion, necesita previamente un
sistema operativo instalado, ya sea Microsoft Windows, Mac OS o Linux.
Hay varias razones por las que un cliente elegira el software de
virtualizacin basado en hipervisor, como por ejemplo vSphere ESXi, en
lugar de un software de virtualizacin basado en host, como por ejemplo
VMware Server.
Primero, con el software de virtualizacin basado en hipervisor, es
posible actualizar las mquinas virtuales que se albergan en los servidores
fsicos sin ningn tipo de downtime.
Segundo, es muy probable que la empresa ya est virtualizando varios
servidores fsicos y quiera tener la opcin de tener una gestin centralizada.
Por ltimo, un hipervisor baremetal siempre ofrece una mayor confiabilidad y
rendimiento al no precisar de un sistema operativo Host lo cual se elimina un
posible punto de fallo a nivel de hardware.

Aunque la virtualizacin basada en hipervisor ofrece un mayor rendimiento,


es la virtualizacin basada en host la que ofrece una compatibilidad con el
hardware mucho ms amplia, es decir, si puedes instalar Windows o Linux en
tu servidor fsico entonces podrs instalar la solucin de virtualizacin
basada en host.
Por consiguiente, una de las mayores diferencias de la solucin de
virtualizacin basada en hipervisor y la solucin de virtualizacin basada en
host - aparte de las obvias ya mencionadas - , es que esta ltima tiende a
tener una lista de hardware certificado mucha ms amplia.

Sin embargo, la virtualizacin basada en hipervisor tiene un mayor


rendimiento, mayor fiabilidad y estabilidad, mayor escalabilidad y mucha ms
funcionalidad.
A diferencia de las versiones anteriores a VMware vSphere ESXi, solo las
variables, memoria reservada y memoria configurada (Reserved Memory y
Configured Memory) afectan ahora al incremento o reduccin del memory
overhead, el cual es una penalizacin a nivel de la capa de memoria que
todos tenemos que pagar por el simple hecho de virtualizar nuestro servidor
fsico. Esta penalizacin se mide en megas de memoria RAM y son megas de
memoria que dejamos de ver y de usar en nuestro servidor fsico.
Como consecuencia de este impuesto revolucionario que exista por el
simple hecho de virtualizar nuestro servidor, VMware vSphere ESXi 5 usa
una nueva funcionalidad llamada VMX swap con la que es posible reducir el
memory overhead de tus mquinas virtuales.
Bsicamente, con una nueva tecnologa llamada VMX swap, el tamao del
memory overhead se crea en un fichero swap con lo que este espacio de
memoria puede llegar a ser re-utilizado por el hipervisor. Esta tcnica
posibilita un aumento en el ratio de consolidacin de VMware vSphere 5
con respecto a versiones anteriores de VMware.
Cules son los nuevos prerrequisitos hardware en VMware vSphere ESXi?
A da de hoy, es posible instalar VMware vSphere ESXi en cualquier tipo de
servidor de nueva generacin. Asimismo, la lista de compatibilidad de
hardware para VMware vSphere ESXi ha aumentado considerablemente
en esta ltima versin, debido principalmente, a que ESXI es la nica versin
disponible en vSphere.
Estos son los requerimientos de hardware mnimos para poder instalar
VMware vSphere ESXi 5:
Procesador: Solo CPUs de 64-bit x86, Intel o AMD, mximo 160 CPUs (cores
o hyperthreads).
Memoria: 2GB de RAM mnimo, 1TB mximo.
Red: Una o ms tarjetas Gigabit Ethernet. Las tarjetas Ethernet de 10Gb
tambin estn soportadas. El nmero mximo de tarjetas de 1Gb Ethernet
(tg3 de Broadcom) por servidor es de 32.
Controladora de disco: Controladora SCSI, controladora FC (Fibre Channel),
controladora iSCSI, controladora RAID interna, SAS y SATA.
Almacenamiento: disco SCSI, LUN (Logical Unit Number) FC, disco iSCSI o
RAID LUN con espacio disponible sin particionar.
Es posible instalar VMware vSphere ESXi 5 en una LUN de la SAN, mtodo
conocido con el nombre de Boot from SAN (BFS). BFS est soportado en Fibre

Channel SAN, en iSCSI (iniciadores de software iSCSI y dependent hardware


iSCSI) y en FCoE - de las siglas en ingls Fibre Channel over Ethernet - para
aquellas cabinas de almacenamiento que estn incluidas en la matriz de
compatibilidad. VMware vSphere ESXi 5 puede configurarse con un
mximo de 256 LUNs de FC (Fibre Channel).
Recuerda que los dos requerimientos necesarios para poder hacer boot from
SAN son:
1. La BIOS de la HBA (Host Bus Adapter) debe estar habilitada.
2. Debes seleccionar la HBA con el nmero de slot PCI menor.
Aviso: Recuerda que si haces una actualizacin de ESX/ESXi 4.1 a VMware
vSphere ESXi 5, aquellos puertos no conocidos - no listados en la pestaa
security profile - que se hayan abierto con el comando de consola esxcfgfirewall en tu servidor ESX/ESXi 4.x, no permanecern abiertos despus del
upgrade.
Asimismo, VMware vSphere ESXi 5 soporta un mximo de 8 dispositivos
PCI/PCIe en modo VMDirectPath passtrough. Sin embargo, una mquina
virtual no puede tener configurados ms de dos dispositivos PCIx/PCIe
configurados como VMDirectPath.
Si usas iniciadores de software iSCSI para hacer BFS y tu administrador
deshabilita este iniciador de software iSCSI, el servidor ESXi 5 volver
habilitar dicho iniciador la prxima vez que se reinicie el servidor para poder
hacer BFS.
Algunos aspectos importantes que deberas saber sobre la diferencias y
similitudes entre VMware vSphere ESX y ESXi
En VMware ESX y ESXi hay ms similitudes que diferencias, aunque quiz, el
beneficio ms importante de ESXi sobre ESX es que ESXi aumenta la
seguridad y la fiabilidad de nuestro hipervisor.
VMware ESXi 5 tiene mucho menos cdigo (76MB de footprint) que
parchear y, por lo tanto, tiene una superficie de ataque mucho menor. La
versin ESX ha desaparecido como tal con el lanzamiento de la versin de
VMware vSphere 5.
La versin VMware vSphere ESXi 5 como la versin ESX comparten el
mismo VMkernel y VMM - de las siglas en ingles Virtual Machine Manager -,
aunque hay algunas connotaciones muy importantes a destacar:
1. Extensiones VMkernel: Mientras que en la versin clsica de VMware ESX
podas instalar agentes y drivers de empresas de terceras partes, en ESXi
solo se permite instalar extensiones en el VMkernel que hayan sido
previamente firmados digitalmente por VMware. Esta restriccin ayuda
mucho a asegurar el entorno y mantener el cdigo seguro en el VMkernel.

2. Muchos de los agentes y deamons que se ejecutaban en el Service Console


(COS) en la versin clsica del ESX, han sido convertidos y embebidos para
que se ejecuten directamente en el VMkernel del ESXi.
3. La imagen del sistema en ESXi - system image - es una imagen bootable que
es cargada directamente en memoria fsica. El propio installer usa esa
misma imagen de sistema para copiar los ficheros en un disco local para
futuros arranques.
Debido a que la imagen del sistema es cargada en memoria, la versin ESXi
no necesita obligatoriamente de un disco local cuando este se est
ejecutando. Esto significa que el disco local podra fallar pero, sin embargo,
nuestro VMkernel continuara ejecutndose.
4. La particin scratch. Es una particin de 4GB virtual y de tipo FAT (VFAT)
la cual es creada por defecto en el primer disco local del servidor ESXi, si tu
servidor tiene discos locales, claro. Si el servidor no tiene ningn disco local,
esta particin no existir pero se rediccionara el directorio scratch a una
particin de tipo ramdisk llamada /tmp. Esto significa que el contenido de
esta particin scratch no sobrevivir a un reinicio del servidor ESXi.
Por consiguiente, el servidor ESXi puede necesitar hasta 4GB de memoria
RAM para almacenar esta particin scratch.
5. Y por ltimo, pero no por ello menos importante, tenemos la particin
bootbank. Esta particin contiene la imagen del sistema sobre un sistema de
archivos. Si hay un disco local al cual ESXi pueda escribir, este almacena dos
copias del bootbank. Pero ojo, solo una es montada en la estructura del
sistema de archivos del ESXi en el directorio /bootbank. La segunda copia se
usa nicamente durante actualizaciones para mantener una segunda copia
como backup en caso de problemas durante actualizaciones del sistema.
Por otro lado, en VMware vSphere ESXi 5 es posible hacer una instalacin
de la imagen directamente en la memoria del servidor fsico usando una
nueva funcionalidad llamada vSphere Auto Deploy ESXi Installation Option.
Con VMware vSphere Auto Deploy podrs acceder al fichero de instalacin
desatendido (answer file) via CIFS, SFTP o HTTP.
VMware vSphere ESXi 5 soporta la designacin de capacidad de disco
dinmicamente mediante una funcionalidad llamada vStorage Thin
Provisioning.
Ahora, con VMware vSphere ESXi es posible hacer una migracin en
caliente con Storage vMotion de una mquina virtual que tiene snapshots.
VMFS-5 soporta un mximo de 9.000 discos virtuales por datastore. Solo
existe una nica opcin de tamao de bloque para un datastore formateado
con la versin 5 de VMFS. Este block size es nicamente de 1MB y te permite
crear discos virtuales con un tamao de hasta 2Gb.

Ahora en VMware vSphere ESXi 5 y VMFS-5 es posible tener hasta un


mximo de 4 ficheros swap por mquina virtual.
Tambin ahora es posible con VMware vSphere ESXi 5 hacer un unmount
del datastore siempre y cuando se cumplan los tres requisitos siguientes:
1. El datastore no puede contener ninguna mquina virtual.
2. El datastore no puede ser usado por vSphere HA heartbeat.
3. El datatore no puede pertenecer a un datastore clster.
VMware vSphere ESXi 5 soporta ahora hasta 3.000 mquinas virtuales por
clster HA/DRS con independencia del nmero de servidores ESXi que hayas
configurado en tu clster.
Por ltimo, recuerda que VMFS-5 solo soporta 256 volmenes o
datastores VMFS por servidor ESXi.
Aviso: Cuando actualizas VMFS-3 a la versin VMFS-5, la configuracin del
block size de tu datastore VMFS-3 es heredara, es decir, si tu datastore
VMFS-3 fue configurado con un block size de 4MB, al actualizar a la versin
VMFS-5 el block size seguir siendo de 4MB. Nota que el block size de un
datastore VMFS-5 no actualizado no puede ser distinto de 1MB.
Diferentes tipos de instalacin en vSphere ESXi

VMware vSphere ESXi 5 solo es posible instalarlo en modo texto, a


diferencia de VMware ESX donde era posible instalarlo tambin en modo
grfico.
Una nueva funcionalidad en VMware vSphere ESXi 5 llamada Image Builder
te permitir hacer instalaciones personalizadas de tu ESXi as como asociar
actualizaciones del binario del ESXi a dicha personalizacin. Hablaremos del
Image Builder ms adelante en este libro. Solo apuntar que el formato de los
paquetes que usa VMware vSphere ESXi Image Builder se llaman VIB - de
las siglas en ingls vSphere Installation Bundle.

Si usas la nueva funcionalidad llamada VMware Auto Deploy, recuerda que los
logs de tu servidor ESXi sern almacenados en memoria con lo que al
reinicializar tu servidor perders estos logs por defecto. Para definir profiles
de imgenes para tus servidores ESXi con Auto Deploy tendrs que usar
cmdlet incluidos en el vSphere Power CLI image builder.
Es posible tambin actualizar servidores ESXi con la utilidad Enterprise
llamada VMware Update Manager (VUM), de la que hablaremos tambin en
este libro.
Una mejora practica antes de actualizar un servidor ESXi, es guardar la
configuracin del servidor que vas actualizar con el siguiente comando de
vCLI: vicfg-cfgbackup s
Aviso: Con VMware vSphere ESXi 5, el nmero total de caminos de FC
(Fiber Channel) por servidor se han aumentado hasta los 1.204. En VMware
vSphere ESXi 5 el mximo nmero de servidores conectados a volmenes
VMFS es de 64 hosts por volumen VMFS.
Asimismo, el nmero mximo de datastores conectados a un Cluster
HA/DRS es de 32.
Tampoco es posible actualizar varios servidores ESXi en un clster
simultneamente, es decir, solo est permitido actualizar un servidor ESXi a
la vez dentro de tu clster.
Datos importantes sobre el nuevo installer en vSphere

Durante la instalacin de vSphere ESXi, el installer de VMware, escanea no


solo los discos locales conectados al servidor fsico ESXi, sino que tambin

har un escaneo de los discos de tu SAN de FC y los mostrara si este tiene


acceso a ellos.
Por consiguiente, y para evitar la instalacin del binario de ESXi en una de tus
LUNs de la SAN FC, recuerda esta Best Practices de VMware para evitar la
sobre escritura de una LUN: Establece o solicita al administrador SAN de tu
empresa un LUN Masking o mejor an, si vas a instalar el binario en discos
locales, desconecta los cables de la SAN de tu servidor ESXi. Adems, est
mejor prctica reduce el tiempo que necesita el installer de VMware en
buscar discos conectados al sistema.
Si estas instalando un servidor ESXi en un disco que ya contiene una versin
previa a la versin vSphere 5, el installer te da la opcin de actualizar esa
versin.
Cuando configuras una cabina SAN de FC con vSphere, asegrate de seguir
las mejores recomendaciones:
1. Cada LUN debera contener solo un DataStore VMFS.
2. Cada LUN debera ser presentada a todos los servidores ESXi con el
mismo LUN ID.
Hay cuatro opciones o mtodos para instalar la nueva versin de VMware
vSphere ESXi 5:

Usando vSphere Auto Deploy

Mediante una instalacin via script

Actualizando un servidor ya existente con VUM

Haciendo una instalacin interactiva como se muestra en la imagen


anterior.

Esta ltima opcin es el mtodo de instalacin recomendado cuando has de


instalar un nmero pequeo de servidores VMware vSphere ESXi.
VMware vSphere 5 ha dejado de soportar mquinas virtuales de 32bit y
por consiguiente VMM de 32bits. Solo Virtual Machine Monitors de 64 bits
pueden ejecutar sistemas operativos de 32bits. Por consiguiente, el uso
exclusivo de un VMM de 64bits en vSphere 5 requiere instrucciones
especficas a nivel de CPU llamadas LAHF y SAHF las cuales no se
encuentran en arquitecturas de 32bit ms antiguas. LAHF y SAHF solo estn
soportados en vSphere 5.
Aviso: Una vez instalado, un servidor VMware vSphere ESXi 5 puede tener
hasta 256 LUNs FC (Fiber Channel) por servidor. Asimismo, el nmero
mximo del ID en FC es de 255 pues los IDs de FC empiezan por el nmero 0
y no por el nmero 1.

Sin embargo, el nmero mximo de caminos iSCSI que un servidor ESXi pues
ver es de 1.024.
Una instalacin inicial de vSphere ESXi usa el formato GPT - de las siglas en
ingls GUID Particion Table en lugar del formato MBR - de las siglas en ingles
Master Boot Record - lo cual permite instalar ESXi en discos con un tamao
superior a 2TB. No obstante, si actualizas de versin VMware ESX/ESXi 4.x a
ESXi 5 no se usara el formato GPT, sino que se mantendr el formato MBR.
Aspectos importantes sobre la configuracin y la seguridad de vSphere ESXi

Ahora VMware vSphere ESXi incluye dos nuevas funcionalidades para


aumentar la seguridad del VMkernel:
1. Memory Hardening: El kernel del ESXi, aplicaciones user-mode y
ejecutables como drivers y libreras estn localizadas en zonas de
memoria aleatorias para evitar que software del tipo troyanos
averigen de una forma sencilla la localizacin de estas zonas de
memoria.
2. Kernel Module Integrity: Los mdulos, drives y aplicaciones de ESXi
son firmados digitalmente para asegurar la integridad de estos una
vez que el VMkernel los carga en memoria.
Asimismo, a diferencia de las versiones VMware ESX 4.x, en VMware
vSphere ESXi 5 es posible hacer boot de tu servidor ESXi desde un disco
USB externo.
Tambin, ahora es posible instalar tus servidores ESXi con la opcin de
VMware Auto Deploy, sobre todo cuando tienes un nmero de host

importante que instalar. De esta forma, acelerars la fase de instalacin del


binario de ESXi y el despliegue de tus mquinas virtuales.
Si haces una actualizacin de la versin ESX 4.x a la versin ESXi 5 el
portgroup tipo Service Console (solo disponible en versiones ESX) ser
borrado ya que en los servidores ESXi no existe un Service Console.
Asimismo, el portgroup de gestin en ESXi es llamado Management Port.
Recuerda antes de actualizar un servidor ESXi hacer una copia de seguridad
de su configuracin con el comando vicfg-cfgbackup desde el vCli.
Desde el punto de vista de almacenamiento compartido SAN iSCSC, el
nmero mximo de LUNs iSCSI que puedes conectar a un servidor ESXi es de
256. Otro de los lmites que han cambiado en esta nueva versin de VMware
vSphere ESXi 5 con respecto a las versiones anteriores, es que ahora es
posible tener arrancadas hasta 2.048 mquinas virtuales por volumen VMFS.
Tambin, ahora es posible activar - y est soportado - el modo soporte (TSM de las siglas en ingls Tech Support Mode) de modo que podrs entrar va
SSH a tu servidor ESXi. Puedes activar el modo TSM desde la DCUI (de las
siglas en ingls Direct Console User Interface) o con el vSphere Client a
travs del panel Security Profile localizado dentro de la pestaa de
Configuration.
Una vez entres en la consola de tu servidor ESXi, via comando podrs ver los
logs de tu sistema, configurar las propiedades de los servicios de DNS, NTP,
arrancar mquinas virtuales, apagar servidores ESXi y un largo etctera. Sin
embargo, una de las pocas tareas que no podrs hacer desde consola es la de
poner tu host ESXi en modo mantenimiento.
Para poder ver una gua de referencia de todos los comandos disponibles por
consola en la versin ESXi, te recomiendo que veas el episodio
correspondiente de nuestro canal de televisin web sobre la virtualizacin y
el cloud computing en espaol en la siguiente direccin:
http://youtube.com/blogvirtualizacion
Asimismo, con el fin de mejorar la seguridad del servidor ESXi, VMware ha
aadido un firewall embebido en el VMkernel. A diferencia de las versiones
anteriores, este firewall no est basado en IPtables de Linux.
Aviso: El mximo nmero de tarjetas HBA de FC soportadas por un servidor
ESXi es de ocho. Tambin, el nmero mximo de CPUs lgicas por servidor
ESXi 5 ha aumentado a las 160 por host.
Si an tienes servidores ESX en tu entorno virtual y necesitas aplicar parches
en el Service Console del ESX, debes de asegrate de aplicar dichos parches
solo y nicamente cuando VMware haya hecho pblico las actualizaciones y
siempre que sea sugerido por personal autorizado de VMware o por el
equipo experto de VMware llamado VMware Security Advisories.
Para poder recibir alertas de seguridad sobre vulnerabilidades del software
de VMware, puedes suscribirte en esta direccin: www.vmware.com/security

Tipos de almacenamiento soportados en VMware vSphere ESXi versus


funcionalidad

En la tabla adjunta, se muestran los cinco tipos de almacenamiento


soportados en VMware vSphere ESXi 5, as como las diferentes
funcionalidades soportadas por cada tipo de almacenamiento.
Con relacin a la conectividad iSCSI y su iniciador de software iSCSI, el
mximo nmero de iSCSI targets es de 265. Asimismo, no es posible crear
ms de un NIC Teaming con el iniciador de software iSCSI con ms de 8
vmnics (uplinks o tarjetas de red fsicas disponibles en el servidor ESXi). Solo
es posible tener un nmero mximo de ocho caminos por LUN para los
volmenes VMFS conectados via software o hardware iSCSI.
En cuanto al tamao mximo de un volumen VMFS para la versin 3 (VMFS3) es de 2TB menos 512Bytes de espacio con un block size de 8MB. Sin
embargo, en VMFS versin 5 (VMFS-5) el tamao del block size es de tan
solo 1MB, aunque es posible crear ficheros .vmdk con un tamao mximo de
2TB. Recuerda que en VMFS versin 3 y con un block size de 1MB, el tamao
de disco de la mquina virtual (.vmdk) no podr superar los 256GB de
espacio en disco.
Asimismo, el tamao mximo para un volumen RDM (de las siglas en ingls
Raw Device Mapping) en VMFS-5 es de 64TB, siempre y cuando uses la
funcionalidad de extenders a nivel VMFS, de la cual hablaremos ms adelante
en este libro, y el modo de compatibilidad de este RDM sea fsico. Sin
embargo, para un volumen RDM VFMS-5 en modo de compatibilidad virtual,
el tamao mximo es de 2TB menos 512 bytes.
VMware vSphere ESXi 5 usa el protocolo NFS versin 3 para comunicarse
con cabinas de tipo NAS. Nota que aunque NFS tambin puede usar la
versin 4, esta no est soportada por VMware. En la versin VMware
vSphere ESXi 5, ahora es posible montar hasta 256 volmenes NFS por
host.

VMware vSphere ESXi 6, ahora soporte NFS versin 4.1!.


Con relacin a los ficheros swaps de las mquinas virtuales, el tamao
mximo que puede alcanzar este tipo de ficheros es de 1TB por mquina
virtual, siempre y cuando, configures tu mquina virtual con 1TB de memoria
RAM.
Puedes ver ms informacin sobre la configuracin del block size en VMFS5 en nuestro curso online vmware gratutio:
http://www.josemariagonzalez.es/curso-online-gratuito
En cuanto al nmero mximo de targets que un servidor host puede ver con
un adaptador Broadcom 10GB iSCSI es de 128 targets. El nmero mximo
de tarjetas 1GB Ethernet Broadcom (bnx2) que un servidor host ESXi puede
tener es de 16.
Aviso: El nmero mximo de caminos por LUN de FC es de 32. Y si te pica la
curiosidad por saber cul es el nmero mximo de ficheros que puedes tener
en un volumen VMFS-5, es de 130.690 ficheros, aunque me temo que muy
probablemente no alcances nunca ese lmite. En VMFS-3 el mximo nmero
de ficheros era de 30.720 ficheros.
Diagnosticando un problema en vSphere
Para poder diagnosticar un problema con vSphere ESXi, necesitas exportar
los logs.
Desde el vSphere Client, selecciona File > Export > Export System Logs.

Ten en cuenta el tamao requerido para almacenar estos logs, sobre todo si
cambias el nivel de lo que quieres que se logee en tu sistemas. Para ponrtelo
en contexto, los logs pueden llegar a crecer hasta 9GB en una instalacin de
10 ESXi y aproximadamente 100 mquinas virtuales con respecto al nivel
estndar de logeo.
Tambin, y si no tienes configurado un servidor de vCenter, puedes
conectarte directamente a tu host ESXi y exportar los logs seleccionado la
opcin, File > Export.

Captulo 3. Red en vSphere

La funcionalidad de red en una infraestructura virtual es de suma importancia.


Permite que las mquinas virtuales en un servidor VMware vSphere
ESXi puedan comunicarse con otras mquinas fsicas o mquinas virtuales en otros
servidores VMware vSphere, mediante la configuracin de los virtual switches.
Tambin te permite comunicarte con el Management Network de los servidores
VMware vSphere para poder gestionarlos y con el VMkernel para poder
configurar vMotion y cabinas de almacenamiento basadas en protocolos NFS o
iSCSI.
En este captulo te ensear a entender el propsito general de un virtual switch y
un distributed virtual switch, cmo configurarlos y conectar uplink ports, as como a
entender las diferentes configuraciones y polticas de seguridad que se pueden
definir a nivel de virtual switch, port group o ambas.
Diferentes tipos de port groups en vSphere ESXi

Un virtual switch estndar (VSS) tiene tres funciones principales:


1. Comunicar con mquinas virtuales dentro de un mismo servidor VMware ESXi o
con otras mquinas fsicas o mquinas virtuales en otro servidor VMware ESXi,
para lo que utilizamos un Virtual Machine Port Group.

2. Comunicar con nuestro servidor ESXi via SSH (puerto 22) o vSphere Client,
para lo que utilizamos un Management Network Port.
3. Comunicar con el VMkernel y puertos IP de tipo VMotion, NFS e iSCSI, para lo
que utilizamos un VMkernel Port.
A diferencia de los switches fsicos, no es posible conectar dos virtual switch juntos
mediante un ISL (InterSwitch Link Protocol), ni puedes mapear la misma tarjeta de
red a ms de un virtual switch a la vez. Recuerda que s es posible configurar un
virtual switch sin ninguna tarjeta de red, lo que es denominado como internal
switch only.
Cuando creas un NIC teaming (una o ms tarjetas de red mapeadas a un virtual
switch para incrementar el ancho de banda o dotar de alta disponibilidad a la capa
de red), todas las tarjetas de red dentro del teaming pasan a ser activas por defecto.
Para crear virtual switches puedes usar el vSphere Client o, desde la consola del
servidor ESXi, puedes usar el comando: esxcfg-vswitch -a "nombre vswitch".
Si hay dos mquinas virtuales conectadas a dos virtual switches diferentes, el
trfico entre dichas mquinas fluir a travs de las tarjetas fsicas mapeadas a los
switches virtuales y entre servidores ESXi. Por el contrario, si varias mquinas
virtuales estn conectadas al mismo VSS del mismo servidor ESXi, los paquetes no
salen por la red, sino que son transmitidos internamente en el servidor ESXi por el
VMkernel.
Para mejorar el rendimiento de red de las mquinas virtuales es posible mapear
ms de una tarjeta fsica (uplink) al VSS.
Aviso: Tambin es posible configurar switches distribuidos virtuales (Virtual
Distributed Switch). La configuracin de los switches distribuidos (VDS) es
almacenada en el servidor vCenter a diferencia de los switches estndar, los cuales
almacenan la configuracin en los servidores ESXi. Un Virtual Distributed Switch
no es ms que un VSS que es compartido entre mltiples servidores VMware
vSphere ESXi. Los VDS solo estn incluidos en la versin Enterprise Plus.
Port groups y el virtual switch estndar

En vSphere ESXi 5, el nmero mximo de puertos soportados para un VSS es de


4088. A este vSwitch, puedes conectar ninguno, uno o ms de un uplink.
Recuerda que es posible cambiar el nmero de puertos en los VSS siempre que sea
necesario. Sin embargo, dicho cambio requiere un reboot del servidor ESXi para
que los cambios tengan efecto.
Los port groups de tipo Management Network, Virtual Machine y
VMkernel pueden todos ser configurados en un nico VSS. Asimismo, slo un
VLAN ID puede ser especificado por port group pero mltiples port groups pueden
especificar el mismo VLAN ID.
Es posible tambin garantizar un mnimo de servido o ancho de banda a todas y
cada una de tus mquinas virtuales. Para ello, puedes usar una tcnica de gestin
de recursos llamada Traffic shapping, a nivel de port group, donde est incluida la
mquina virtual para aliviar problemas de congestin de red o garantizar un ancho
de banda determinado. Esta funcionalidad para los VSS te permite limitar el ancho
de banda desde la mquina virtual hacia afuera (outbound) pero no desde fuera
hacia la mquina virtual (inbound).
Si precisas tener que limitar el ancho de banda desde fuera hacia dentro y desde
dentro hacia afuera (outbound y inbound) tendrs que usar los switches
distribuidos (VDS). Recuerda que este switch distribuido se crea en el vCenter
Server, con lo que para usar VDS, aparte, debes de contar con una licencia de
vCenter.
Por defecto, y para los VSS, cuando creas un virtual switch por defecto es creado
con 120 puertos. Sin embargo, si utilizas la lnea de comando y ejecutas
el comando esxcfg-vswitch l vers que en realidad son 128 puertos.
Estos ocho puertos son puertos extra que usa el VMkernel internamente y que no
podemos usar desde la GUI. Estos ocho puertos extras solo pueden verse desde la
lnea de comando en ESXi:

Aviso: Es posible que tengas la necesidad de limitar el ancho de banda en los


diferentes tipos de conexiones descritas anteriormente, y sobre todo, que tengas
que aliviar problemas de cuellos de botella en la capa de red. En captulos
posteriores cubriremos algunas tcnicas para aliviar cuellos de botella en los
diferentes componentes de vSphere 5.
Diferentes tipos de virtual switch en vSphere

Cada virtual switch, es una representacin lgica va software de un switch fsico de


capa dos. Los tres tipos de virtual switch que puedes crear en un servidor ESXi son
los siguientes:
1. Internal switch only. Este switch es usado nicamente para conectar, va red, las
mquinas virtuales instaladas en el mismo servidor VMware ESXi, las cuales no
necesitan conexin con el mundo exterior.
2. Virtual switch con un adaptador de red. Este switch es usado para conectar, va
red, mquinas virtuales, Management Network (gestin) y puertos VMkernel con el
mundo exterior, o dicho de otro modo, con otros servidores y mquinas virtuales
de nuestro entorno virtual.
3. Virtual switch con ms de un adaptador de red. Este switch es usado para
conectar, va red, mquinas virtuales, Management Network y puertos VMkernel con
el mundo exterior con una funcionalidad adicional, como es el balanceo de carga y
redundancia a fallos en los componentes de red.
Las polticas de seguridad y de traffic shaping son configuradas a nivel de port group
y vSwitch. Una configuracin incorrecta del traffic shaping afectara no slo al
trfico de las mquinas virtuales sino tambin al trfico en general.

En vSphere ESXi, una tarjeta mapeada a un switch virtual puede ser configurada
para trasmitir y recibir tramas Jumbo Frame. El MTU (Maximum Transmision
Unit) de un Jumbo Frame es de 9000. VMware ESXi tambin soporta Jumbo
Frames, tanto en los VSS como en los VDS.
Ahora, tambin es posible activar desde la GUI de los VSS el uso de los mismos. La
configuracin de Jumbo Frames es considerada una mejor prctica para las redes
de tipo iSCSI, vMotion y Fault Tolerance.
Aviso: Los tres tipos de virtual switch pueden soportar hasta un total de 4088
puertos por switch virtual estndar.
Para los tres tipos de virtual switch, no existen colisiones de red en el trfico
interno. Asimismo la direccin MAC de los adaptadores de red conectados a los
virtual switches no ser usada en ningn momento de forma interna.
Las polticas de balanceo de carga en un VSS en vSphere

En VMware vSphere, el adaptador NIC fsico conectado al primer puerto de


Management Network es denominado vmk0. El primer puerto de gestin definido
en nuestro servidor VMware ESXi es denominado "Management Network".
La configuracin de las polticas de balanceo de carga en un NIC teaming y para un
VSS son tres:

Route based on the originating virtual port ID

Route based on source destination MAC hash

Y Route based on IP hash

Sin embargo, las polticas de balanceo de carga para un NIC teaming en un VDS
incluye otra poltica adicional llamada Route Based on physical NIC load como
veremos ms adelante.

Aviso: En una configuracin de NIC teaming a nivel de VSS, es muy importante


activar la opcin Notify Switches. Cuando configuras una poltica de NIC teaming en
un VSS y seleccionas la opcin Notify Switches, el switch fsico ser alertado cuando
la localizacin de una tarjeta virtual cambia de puerto. Esto ocurre, por ejemplo,
cuando se hace una migracin de una mquina virtual en caliente con vMotion.
Propiedades de los adaptadores de red en VMware ESXi

Para ver las propiedades de tus tarjetas de red, selecciona el servidor ESXi en el
panel inventario, luego en la pestaa Configuration, selecciona el enlace Networking

en la parte Hardware y luego Properties en el switch virtual que tiene conectado el


adaptador de red que quieres modificar.
Existe nueva tecnologa en vSphere ESXi que puedes usar para incrementar el
throughput de tus mquinas virtuales es el Split RX como veremos ms adelante.
Si estas usando adaptadores de red Gigabit Ethernet, es considerada una mejor
prctica dejar la velocidad y la configuracin de dplex en auto negotiate ya que el
auto negotiate es parte del estndar en redes Gigabit Ethernet.
Aviso: Para configurar NetQueue, y mejorar as el rendimiento de red de las
mquinas virtuales en un servidor ESXi, es necesario habilitarlo en el driver de la
tarjeta fsica y en las opciones avanzadas del VMkernel. Si el rendimiento de la
consola remota para una mquina virtual es lento, verifica la configuracin (speed,
duplex) de la tarjeta fsica asignada al port group del switch virtual.
Los diferentes tipos de polticas de seguridad en vSphere

En los VSS, hay tres tipos diferentes de polticas de seguridad: Traffic shaping
Policy, NIC Teaming Policy y Security Policy. En un Virtual Distributed Switch,
aparte de estas tres polticas de seguridad, existe otra nueva, Port Blocking Policy.
Las polticas pueden ser definidas a nivel de virtual switch, las cuales se convertiran
tambin en las polticas por defecto para todos los port groups creados en dicho
virtual switch, o a nivel de port group.
Las polticas definidas a nivel de port group, siempre sobrescriben las polticas
definidas a nivel de virtual switch. Un vSwitch o vSwitch port group en "Promiscuous
Mode" permitir que una mquina virtual pueda "escuchar" todo el trfico
contenido en ese VSS y no solo el trfico destinado para esta mquina virtual en
concreto.
Una mejor practica en la capa de red con vSphere es que antes de crear los
diferentes tipos de switches virtuales, protocolos de balanceo de carga, VLANs,

port groups y NIC teaming, hables con el administrador de tu red fsica sobre lo
que necesitas a nivel de red virtual.
Es muy corriente implementar IP hash a nivel de red virtual en entonos de
produccin relativamente importantes para luego darse cuenta que no est
funcionando correctamente porque no se ha activado en el switch fsico.
La configuracin predeterminada en vSphere, dentro de la poltica de seguridad
Security

La configuracin predeterminada para la poltica de seguridad Security y para todos


los VSS es la siguiente:
Promiscuous Mode: Reject - Significa que el virtual switch no redireccionar
ninguna trama a otros puertos del switch (modo switch). Si Promiscuous Mode es
cambiado a Accept, el switch se comportara como un HUB y redireccionar todas
las tramas entrantes y salientes a todos los puertos del virtual switch.
Esta configuracin suele ser til cuando "pinchamos" un sistema IDS (Intrusion
Detection System) o sniffer en un virtual switch para analizar todas las tramas de
dicho switch.
MAC Address Changes: Accept - Significa que el virtual switch no hara un drop de
la trama entrante si la direccin MAC de sta no coincide con la direccin MAC de
la mquina virtual conectada en ese port group. Por defecto, esta opcin se suele
cambiar a Reject para evitar ataques tipo MAC spoofing.
Forged Transmit: Accept - Significa que el virtual switch no hara un drop de la trama
saliente si la direccin MAC de sta no coincide con la direccin MAC de la
mquina virtual guardada en el fichero de configuracin (.vmx) de dicha mquina

virtual. Por defecto, esta opcin se suele cambiar a Reject para evitar ataques tipo
MAC flooding y MAC spoofing.
En resumen, Forged Transmit permite a una mquina virtual transmitir paquetes
(outbound) que contienen una direccin MAC diferente a la que se ha definido en
esa mquina virtual.
Recuerda que las polticas de seguridad de red a nivel de VSS y port group son
Reject (Promiscuous Mode), Accept (MAC address Changes) y Accept (Forget
Transmit).
Aviso: No cambies la configuracin por defecto de MAC Address Changes ni Forged
Transmits si tienes configurado en el virtual switch un clster Microsoft NLB
(Network Load Balancing) en modo unicast.
Para ver ms informacin sobre la configuracin determinada con Microsoft NLB,
ver el KB nmero 1556 en la pgina de VMware: http://kb.vmware.com
Asimismo, cuando tengas que hacer una conversin P2V - de las siglas en ingls
Physical to Virtual - con el software de conversiones de VMware llamado
vConverter, asegrate de configurar Allow Mac Adress Changes en Accept, si el
servidor fsico que estas intentando convertir tiene software instalado que fue
licenciado usando la direccin MAC de su tarjeta fsica.
La configuracin predeterminada, dentro de la poltica de seguridad de Traffic
Shaping

Esta poltica de seguridad de traffic shaping, para el vswitch y port group, est
desactivada por defecto. Con la opcin network traffic shaping puedes limitar el
outbound peak bandwidth y el outbound average bandwidth.

Esta poltica de traffic shaping solo se aplica a las conexiones de dentro hacia fuera
(outbound), es decir, desde dentro del virtual switch hacia fuera del virtual switch.
No es posible definir una poltica de traffic shaping desde fuera del virtual switch
hacia dentro (inbound) en un VSS.
Una primera alternativa para limitar el trfico de tipo inbound es la de usar algn
sistema externo de balanceo de carga o activar la opcin de rate-limiting en tu
router fsico.
La segunda alternativa la encontramos en los VDS. En los Virtual Distributed
Switches es posible definir el Traffic Shaping en ambas direcciones (Ingress inbound y Egress - outbound).

En vSphere hay dos formas de migrar una mquina virtual desde un vSwitch
estndar a un Virtual Distributed Switch.
La primera opcin es seleccionando un dvPort group desde las propiedades de la
configuracin de red de la mquina virtual, y la segunda, seleccionando la mquina
virtual desde la lista de mquinas virtuales cuando usas la opcin "Migrate Virtual
Machine Networking".

Una nueva funcionalidad en los VDS de la versin ESXi 5 es la de habilitar la opcin


de NetFlow. Esta opcin te permitir mandar trfico de red desde un VDS a una
mquina virtual, la cual si tiene un software de anlisis de red podrs hacer un
estudio muy exhaustivo de tu red de datos y del tipo de trfico enviado por tu red.

Para terminar con las diferencias entre un VSS y un VDS, estas son las tres
funcionalidades ms importantes que estn disponibles en los VDS y no en VSS:

NetFlow Monitoring

Network I/O Control

Egress Traffic Shapping

Cuando creas un dvPort group, el port binding dinmico (Dynamic Binding) se


asegura de asignar un puerto a la mquina virtual la primera vez que es encendida.

Recuerda que si usas un uplink que ya est previamente en uso en un VSS para
crear un VDS, las mquinas virtuales que estuvieran usando ese uplink perdern la
conectividad.
Aviso: Ten en cuenta que el Average Bandwidth y Peak Bandwidth son medidos en
Kbps, mientras que el Burst Size es medido en KB.
De la misma manera se mide en los Virtual Distributed Switch. Asimismo, recuerda
que el mximo nmero de VDS por servidor de vCenter es de 32.
Arquitectura de un Virtual Distributed Switch

Como he mencionado anteriormente, el VDS se crea en el servidor de vCenter y se


gestiona desde ese mismo servidor de vCenter.
Existen tres mtodos a la hora de crear un port groups en un Virtual Distributed
Switch:
1. El adaptador de red con la configuracin del port group puede ser asociado con
un port group existente en un Virtual Distributed Switch.

2. El port group tambin puede ser migrado desde un virtual switch estndar a un
VDS y viceversa.
3. Un adaptador de red con la configuracin de un port group puede ser creado
durante la instalacin de un Virtual Distributed Switch.
Una mejor practica de VMware es la de usar VDS en lugar de VSS ya que los
swithes distribuidos ofrecen algunas funcionalidades Enterprise que no estn
incluidas en los VSS.
Naturalmente tendrs que evaluar el coste adicional asociado al uso de los VDS ya
que solo es posible configurar VDS si tienes la licencia Enterprise plus.
La configuracin predeterminada en vSphere, dentro de la poltica de seguridad de
NIC Teaming.

Para la poltica de seguridad de NIC Teaming, existen cuatro opciones en el


algoritmo de load balancing a seleccionar: route based on the originating virtual
port ID (por defecto), route based on ip hash (es necesario etherchannel), route
based on source MAC hash y explicit failover order. Recuerda que las polticas de
load balancing para el Virtual Distributed Switch son las mismas, ms una extra
adicional.
Para habilitar el NIC teaming es necesario conectar ms de una tarjeta de red fsica
a un nico virtual switch o virtual distributed switch.
Si la opcin "explicit failover order" no es elegida como algoritmo de balanceo de
carga en un virtual switch con mltiples uplinks (NIC teaming) y una de las tarjetas
fsicas del teaming se cae", el VMkernel verifica el contador "reported uptime" de
las otras NICs para asignar una NIC del teaming y proceder al failover.

Beacon Probing se usa en vSphere para detectar e identificar fallos en el enlace


upstream. Es muy til en entornos Blade y en donde tenemos Spaning Three
Protocol activado en nuestra red fsica. De esta forma podremos detectar fallos de
red en los caminos alternativos.
En un VSS con un port group de tipo Management Netowrk y un port group tipo
VMkernel, y mapeas dos uplinks al VSS, es posible separar el trfico de gestin y
del trafico VMkernel seleccionando la poltica de balanceo "Explict Failover order".
Asimismo, es posible ver ms informacin sobre la configuracin actual de los VSS
con el siguiente comando desde la consola de servidor ESXi:

Algunos mximos y mnimos importantes de red en VMware vSphere ESXi

stos son algunos de los mximos y mnimos en la capa de red para VMware
vSphere ESXi 5:

256 es el nmero mximo de port groups ephemeral por vCenter.

256 es el nmero mximo de port groups por switch virtual estndar (VSS de
las siglas en ingles virtual switch standard).

5.000 es el nmero mximo de port groups estticos por instancia de


vCenter.

5.000 es el nmero mximo de puertos virtuales en switches distribuidos


por vCenter.

4.088 es el nmero mximo de puertos de red en los VSS.

350 es el nmero mximo de servidores ESXi 5 que puedes conectar por


VDS.

32 es el nmero mximo de VDS por instancia de vCenter.

4096 es el nmero mximo de puertos virtuales de red por host (VSS y


VDS).

1.016 es el nmero mximo de puertos activos por host (VSS y VDS).

24 es el nmero mximo de tarjetas de 1GB Ethernet (e1000e Intel PCI-e)


por host.

32 es el nmero mximo de tarjetas de 1GB Ethernet (e1000e Intel PCI-x)


por host.

24 es el nmero mximo de tarjetas de 10GB Ethernet (NetXen) por host.

8 es el nmero mximo de tarjetas de 10GB (ixgbe) por host.

4 es el nmero mximo de iniciadores de hardware iSCSI Broadcom de


10Gb por host.

512 es el nmero mximo de mquinas virtuales por host.

Aviso: En cuanto a las diferentes tarjeteras de red y sus combinaciones, VMware


vSphere ESXi 5 soporta un mximo de seis tarjetas de 10GB y cuatro de 1GB en
un mismo host.

La importancia de VLANs en vSphere

La configuracin de VLANs en un entorno virtual con vSphere mejora la seguridad


de nuestra solucin de virtualizacin.
Para la implementacin de VLANs, los servidores VMware ESXi usan una
metodologa llamada port group policies. Para conectar una mquina virtual en un
virtual switch con una VLAN, debes usar el vSphere Client. Como vemos en la
imagen de arriba, la red VM Network es la que ha sido configurada con un VLAN
ID.
Si no configuras VLANs, las mquinas virtuales que estn mapeadas en cualquier
port group del virtual switch podrn ver todo el trfico.

Captulo 4. Almacenamiento en vSphere

El almacenamiento es, sin duda, uno de los pilares ms importantes de una solucin
de virtualizacin. Es un componente crtico para poder dotar a nuestro entorno de
un plan de contingencia a fallos, alta disponibilidad y migracin de mquinas
virtuales entre servidores VMware vSphereESXi.
Zoning, LUN Masking y el uso de VAAI en vSphere

La configuracin de la zona a nivel del fabric de fibra es un mecanismo muy usando


tanto para entornos fsicos de SAN FC como para entornos virtualizados con una
red de SAN FC.
El Zoning se hace a nivel de switch de fibra para restringir las conexiones de los
servidores ESXi o servidores fsicos a la cabina de datos y prevenir que otros
servidores destruyan los datos en los volmenes.
LUN Masking se puede hacer en dos niveles: a nivel de procesadores de datos (en
Ingles SP - Storage Processors) y a nivel de servidor ESXi. Aunque, en la actualidad
el LUN Masking se suele hacer ms a nivel de SP, tambin es posible hacerlo a nivel
de servidor ESXi sobre todo cuando usamos Boot From SAN(BFS).
Asimismo en los switches de FC de nueva generacin tambin es posible hacer
LUN Masking.

BFS puede llegar a ser til para configuraciones diskless en servidores tipo Blade.
Cuando ests haciendo BFS, la LUN FC desde donde arranque el servidor ESXi,
deber ser solo visible para ese servidor. Los otros DataStores VMFS, deberan ser
visibles a todos los servidores ESXi.
Asegrate siempre de que cambies tu configuracin de la zona del fabric de FC o
las propiedades de las LUNs, hacer un rescan de tu fabric a nivel de centro de
datos. De esta forma te aseguras que todos los servidores tienen la ltima
configuracin de tu SAN.

Desde VMware vSphere 4, aparecieron APIs por doquier, lo cual ha permitido


evolucionar el producto a nivel de almacenamiento con caractersticas muy
innovadoras. Una de las APIs ms importantes, y que ya apareci en la versin 4.1,
es la vSphere APIs for Array Integration, tambin conocida por el acrnimo VAAI.
En consecuencia, una cabina con soporte VAAI para la nueva versin de VMware
vSphere ESXi tendr un mayor rendimiento en las siguientes operaciones:
Write Same/Zero nos ayuda a eliminar I/O en tareas repetitivas y disminuir el
consumo de CPU, por ejemplo, la clonacin masiva o el aprovisionamiento de
mquinas virtuales.
Fast/Full Copy nos permite realizar Storage vMotion sin trfico en la red o las
HBAs, ya que lo realiza la cabina SAN. La duracin de la migracin disminuye en un
25%, segn datos proporcionados por EMC.
Hardware Offloaded Locking es una gran funcionalidad. Hasta ahora las reservas
SCSI que se realizan sobre un datastore VMFS se realizan a nivel de LUN, por
tanto, en un momento dado, solo una mquina virtual puede acceder a la LUN en
algunas tareas, con Hardware Offloaded Locking el bloqueo se realiza a nivel de
bloque no de LUN. Esto nos permitir aumentar el nmero de mquinas virtuales

por datastore en nuestros diseos y disminuir el tiempo de creacin de


datastores VMFS y NFS.
Thin Provisioning Stun evita que nos quedemos sin espacio en disco poniendo la
mquina virtual en pausa hasta que consigamos disco. Esta situacin, puede llegar
a ocurrir si aprovisionamos en modo Thin y necesitamos ms disco del que
tenemos.
VAAI est activado por defecto en vSphere ESXi 5 a partir de la licencia
Enterprise. Por supuesto, ni que decir tiene, la cabina de datos tambin tiene que
soportar VAAI.
Para terminar con VAAI, una cabina con soporte VAAI y con el uso de thin
provisioning ofrece la posibilidad de reclamar espacio cuando una mquina
virtual es migrada a un datastore diferente con Storage vMotion o cuando el disco
virtual es borrado.

Con el vSphere Client y desde la pestaa Storage Views podrs ver informacin
muy interesante relativa a tus datastores VMFS, como por ejemplo:

El estado del algoritmo de multipathing para tus datastores

El espacio usado en tus datastores

Y un montn de otras cosas interesantes relativas a la configuracin de tu


datastore

Cmo mostrar ms informacin de los volmenes o datastores en vSphere?

Para obtener ms informacin sobre los DataStores VMFS, como, por ejemplo, el
estado del Multipathing actual y el espacio usado, selecciona la pestaa Storage
Views.
El Runtime Name, para un dispositivo de almacenamiento en FC, equivale al
nombre de la ruta del dispositivo en formato vmhba:C:T:L, donde C es Controler, T
es Target y L es LUN.
El seudo name vmhba32 es el nombre que el VMkernel utiliza para los iniciadores
software iSCSI. Recuerda que tanto el adaptador de software iSCSI como el
adaptador dependent hardware iSCSI necesitan un port group tipo VMkernel para
ser configurados del todo.
Si usas una adaptador de tipo dependent hardware iSCSI para tu conexin iSCSI, es
posible que el rendimiento de las tarjetas de red asociadas con este adaptador
muestren muy poca actividad, incluso cuando el trafico via iSCSI es muy alto. Esto
es consecuencia directa de que el trafico iSCSI hace un bypass del trafico normal
de red y no se ver reportado por las herramientas internas de monitorizacin de
red del servidor ESXi (esxtop).
Asimismo, para obtener un mejor rendimiento iSCSI con adaptadores de tipo
dependent hardware iSCSI es una mejor prctica habilitar la opcin de flow control.
Flow control est habilitado por defecto en todas las tarjetas de red en los
servidores ESXi 5. Es posible deshabilitar flow control. Puedes ver el KB 1013413
en el siguiente enlace para deshabilitarlo: http://kb.vmware.com/kb/1013413

Presentando LUNs FC a los servidores vSphere

La buena noticia es que el mdulo para el adaptador de fibra es reconocido por el


VMkernel durante la secuencia de arranque, con lo que si el Zoning est bien
configurado, no deberas de tener mayor problema en ver tus LUNs de FC.
Para acceder a las nuevas LUNs, no es necesario hacer un reboot del servidor ESXi.
Las nuevas LUNs sern descubiertas por los servidores ESXi siempre que se
realice un Rescan en cada servidor vSphere ESXi o desde el objeto de inventario
DataCenter.
Adicionalmente, cuando elimines un DataStore de un servidor ESXi, realiza un
Rescan en todos los servidores ESXi para actualizar los cambios. Desde la versin
vSphere 4.x, se incluye una opcin de Rescan centralizado para buscar cambios en
la granja de SAN de todos los servidores ESXi incluidos en el mismo objeto de
inventario de tipo DataCenter.
QLA es el nombre corto del mdulo del driver Linux para una HBA del proveedor
Qlogic.
LPFC es el nombre corto del mdulo del driver Linux para una HBA del proveedor
Emulex.
Recuerda que las HBAs tiene un nmero identificativo nico y global llamado
World Wide Nane, tambin conocido con el acrnimo WWN.
Como en la parte de configuracin de red, es una mejor prctica que antes de
configurar la parte de SAN en tu entorno virtual, hables con tu administrador de
SAN sobre tus necesidades en cuanto a la capa de almacenamiento se refiere.
Algunos de los temas que deberas de tener claro y preguntar a tu administrador
de SAN antes de implementar el almacenamiento en tu entorno virtual incluyen lo
siguiente:
El tamao necesario de tus LUNs
I/O bandwidth que requieren tus aplicaciones virtualizadas
El tamao de la cache, zoning y LUN masking de tu fabric de SAN
La configuracin del multipathing en ESXi, es decir, si es una cabina activa/activa,
activa/pasiva o activa/activa con soporte ALUA.

Aviso: El nmero mximo de HBAs soportadas en vSphere ESXi 5 ha aumentado


de 8 tarjetas HBAs por host ESXi 5 a 16. Asimismo, el nmero mximo de targets
por HBA de FC es de 256.
Cmo se configura el iniciador software iSCSI en vSphere?

Una SAN de tipo iSCSI consiste de una cabina de datos con conexiones tipo iSCSI
(red de 1Gb o 10Gb Ethernet) la cual contiene una o ms LUNs as como SPs. La
comunicacin entre el host ESXi y la cabina iSCSI se establece a travs de una red
Ethernet de datos.
iSCSI usa el IQN (iSCSI Qualify Name), donde el primer nmero representa el ao,
mes
y
la
organizacin
que
registr
el
dominio:
iqn.200601.com.openfiler:volume.vmware. Este nombre IQN no puede superar los 255
caracteres.
Los servidores ESXi vienen configurados, por defecto, con un iniciador de software
iSCSI. Este iniciador iSCSI transmite comandos SCSI por una red de datos. El
target, es decir, la cabina de datos iSCSI, recibe estos comandos SCSI y el SP los
procesa.
Es posible tener mltiples iniciadores y targets en nuestra red iSCSI. Y a diferencia
en las versiones anteriores, en vSphere 5, el iniciador de software no viene
instalado por defecto. Puedes ver el video tutorial de la instalacin del iniciador de
software iSCSI en vSphere ESXi en nuestro curso online gratuito de VMware
en: http://www.josemariagonzalez.es/curso-online-gratuito
VMware vSphere utiliza CHAP (Challenge Handshake Authentication Protocol)
para ofrecer lo que se denomina Initiator authentication. Es una buena prctica
aislar la red de gestin, de la red iSCSI y de la red donde estn conectadas todas las
mquinas virtuales.

Debido al hecho de que las redes IPs que usan la tecnologa iSCSI no encriptan los
datos trasmitidos, es aconsejable para configuraciones iSCSI, activar la
funcionalidad de CHAP que se incluye tanto en la cabina (target) como en el
iniciador de software iSCSI en el servidor ESXi.
Si configuras el servidor ESXi con la opcin de CHAP para acceder a una LUN iSCSI
y despus deshabilitas CHAP en el servidor, el acceso a las LUNs iSCSI no se ver
afectado hasta que no se reinicie el servidor ESX/ESXi o la cabina iSCSI. Puedes
activar el CHAP en la pestaa General despus de seleccionar las propiedades del
iniciador de software iSCSI.

Aviso: No olvides abrir el puerto 3260 en el firewall del servidor ESXi. El protocolo
iSCSI utiliza este puerto para la comunicacin entre la cabina iSCSI (Target) y el
servidor ESX (iSCSI initiator).
Descubriendo recursos NFS en servidores vSphere

Aparte de la conectividad de FC e iSCSI, es posible dotar de almacenamiento NAS,


via NFS, a tus servidores ESXi. Estos servidores ESXi acceden al servidor NFS
mediante un port group de tipo VMkernel el cual se define a nivel de switch virtual.
Para crear un DataStore NFS en un servidor ESXi necesitas saber el nombre o IP
del servidor NFS, el nombre de la carpeta compartida en el servidor NFS y el
nombre del DataStore que quieres darle.
ESXi solo soporta la versin 3 de NFS sobre el protocolo TCP. Los servidores ESXi
ganan acceso exclusivo a las mquinas virtuales creadas sobre un DataStore NFS
usando un fichero especial de bloqueo llamado .lck-xxx. En la versin 6 de VMware
ESXi, ya es posible usar NFS versin 4.1!
Tambin, es posible activar la opcin CHAP para conexiones de tipo NFS. El
protocolo CHAP bidireccional solo est soportado para los iniciadores software
iSCSI. Con el CHAP bidireccional el target verifica el iniciador software y el
servidor verifica el target. El iniciador hardware iSCSI solo soporta CHAP
unidireccional, es decir, el target verifica al servidor host.
Aviso: El uso de la funcionalidad de usuario delegado que permite acceso a un
DataStore NFS no est soportado en ESX/ESXi 4.x. Las mquinas virtuales creadas
sobre DataStores NFS tienen formato thin, a diferencia de las mquinas virtuales
creadas sobre DataStores VMFS en FC, las cuales tienen un formato thick.
Configurando multipathing con iniciadores software iSCSI en vSphere

En vSphere es posible configurar el algoritmo de multipathing que viene


embebido en el VMkernel del ESXi. La idea general de este algoritmo de
multipathing es ofrecer a tus servidores ESXi caminos alternativos en caso de cada
de un switch fsico, una tarjeta de red o incluso un SP de tu cabina.
Asimismo, es posible usar las opciones de multipathing para poder dotar de un
mecanismo de balanceo de carga a nuestras LUNs de datos.

Es posible cambiar el Multipathing Pluging (MPP) para uno o ms datastores


aunque es siempre una mejor prctica asegrate que tipo de MPP soporta tu
cabina confirmndolo primero en el HCL de las siglas en ingles Hardware
Compatibiliy List - de VMware.
Puedes ver el HCL de todas las capas en una solucin de virtualizacin en el
siguiente enlace: http://www.vmware.com/go/HCL
Cuando se usa el Multipathing Plugings (MPPs) en vSphere, el Pluggable Storage
Architecture (PSA) ejecuta las siguientes tareas:
1. Gestiona las colas de E/S de disco de la HBA (Host Bus Adapter).
2. Descubre y elimina rutas fsicas.
3. Gestiona las colas de E/S de disco en el dispositivo lgico.
Cuando configuras multipathing con iniciadores software iSCSI, debes configurar
dos port groups tipo VMkernel. Despus, mapea cada port group a un uplink diferente
sobre el mismo virtual switch y selecciona el algoritmo de multipathing Round
Robin.
La idea general es, despus de seguir todos los pasos siguientes, tener al
menos dos caminos por LUN activos para que de esta manera podamos aumentar,
no solo la disponibilidad con VMware multipathing sino tambin, el ancho de banda
de E/S de nuestros datastores en vSphere ESXi.
A continuacin, te resumo los pasos a seguir para crear una configuracin
multipathing tanto para iSCSI como para conexiones NFS en tus servidores ESXi:
Paso 1: Configura un vSwitch y habilita el Jumbo Frames
Este paso (Jumbo Frames) tienes que hacerlo desde lnea comando para la versin
ESX/ESXi 4.x pues en los vswitch estndares de esta versin no tienes la opcin de
hacerlo desde la GUI (si est disponible en los vswitch distribuidos). Para la nueva
versin de vSphere ESXi 5 ya es posible activar el Jumbo Frames tambin desde
la GUI para los VSS.
esxcfg-vswitch a vSwitch1 (crea un vSwitch llamado vSwitch1)
esxcfg-vswitch m 9000 vSwitch2 (activa jumbo frame en el vSwitch1)
Paso 2: Aade los VMkernel Ports iSCSI
Aqu, depender de las tarjetas de red que tengas cableadas y de las controladoras
de disco que tengas en tu cabina.
Al menos, deberas de configurar dos VMkernel Ports con dos tarjetas de red para
tener, tanto balanceo de carga con RR (de las siglas en ingls Round Robin) como
mecanismo de balanceo de carga.

esxcfg-vswitch A iSCSI1 vSwitch1 ( crea un VMkernel port llamado iSCSI1 )


esxcfg-vmknic a i 10.10.1.1 n 255.255.255.0 m 9000 iSCSI1 (asigna una ip,
subnet mask y jumbo frames al VMkernel port iSCSI1)
esxcfg-vswitch A iSCSI2 vSwitch1 ( crea un VMkernel port llamado iSCSI2 )
esxcfg-vmknic a i 10.10.2.1 n 255.255.255.0 m 9000 iSCSI2 (asigna una ip,
subnet mask y jumbo frames al VMkernel port iSCSI2)
Paso 3: Asigna las tarjetas de red fsicas al vSwitch1
Primero, asegrate que tienes al menos dos tarjetas de red fsicas sin asignar a otro
vswitch. Lo puedes ver con este comando esxcfg-nics l.
esxcfg-vswitch L vmnic3 vSwitch1 (Conecta la tarjeta vmnic3 al vSwitch1)
esxcfg-vswitch L vmnic4 vSwitch1 (Conecta la tarjeta vmnic4 al vSwitch1)
Aqu viene lo bueno. Por defecto, cuando creas un team en un vswitch las dos
tarjetas en el team se convierten por defecto en activa/activa. Para que
el multipathing ESXi funcione con el iniciador de software iSCSI debes cambiar las
propiedades del multipathing. Lo explicar en el siguiente paso.
Paso 4: Asocia los VMkernel Ports a las tarjetas de red fsicas
Antes de seguir con este paso, teclea el siguiente comando:
esxcfg-vswitch l
Deberas de ver algo as en tu vSwitch1:
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 64 7 64 9000
vmnic3,vmnic4
PortGroup Name VLAN ID Used Ports Uplinks
iSCSI2 0 1 vmnic3,vmnic4
iSCSI1 0 1 vmnic3,vmnic4
Aqu, puedes ver que las dos tarjetas estn asociadas en los dos VMkernel Ports.
Esto es lo que tienes que cambiar con el siguiente comando.
esxcfg-vswitch p iSCSI1 N vmnic3 vSwitch1 (borra el vmnic3 del VMkernel port
iSCSI1)
esxcfg-vswitch p iSCSI2 N vmnic4 vSwitch1 (borra el vmnic2 del VMkernel port
iSCSI2)
Para verificar que has tecleado bien los comandos anteriores, vuelve a teclear este
comando para ver la salida:

esxcfg-vswitch l
Deberas de ver algo as:
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 64 7 64 9000
vmnic4,vmnic3
PortGroup Name VLAN ID Used Ports Uplinks
iSCSI2 0 1 vmnic4
iSCSI1 0 1 vmnic3
Paso 5: Habilita el iniciador de software iSCSI
Con el comando esxcfg-swiscsi e habilitas el iniciador de software iSCSI.
Paso 6: Muy importante: Crear el Binding de los VMkernel Ports con el iniciador de
software iSCSI
Primero, confirma el seudo-name de tu iniciador de software iSCSI. Lo puedes ver
con este comando.
esxcfg-scsidevs a
Deberas de ver algo as:
vmhba0 mptsas link-n/a sas.5001ec90e0ba7c00
(1:0.0) LSI Logic / Symbios Logic LSI1068E vmhba1 ata_piix link-n/a ide.vmhba1
(0:31.1) Intel Corporation 631xESB/632xESB IDE Controller
vmhba32 ata_piix link-n/a ide.vmhba32(0:31.1) Intel Corporation
631xESB/632xESB IDE Controller
vmhba33 iscsi_vmk link-n/a iscsi.vmhba33() Software iSCSI
En mi caso como ves, el seudo-name de mi iniciador software iSCSI es vmhba33
Segundo, determina el nombre exacto de los VMkernel ports de tus iniciadores
iSCSI. Lo puedes ver con este comando:
esxcfg-vmknic l
Interface Port Group/DVPort IP Family IP Address
Netmask Broadcast MAC Address MTU TSO MSS
Enabled Type
vmk3 iSCSI1 IPv4 10.10.1.1
255.255.255.0 10.10.5.255 00:50:56:7b:d8:21 9000 65535 true
STATIC
vmk4 iSCSI2 IPv4 10.10.2.1
255.255.255.0 10.10.5.255 00:50:56:7e:ae:81 9000 65535 true
En mi caso, como ves en la salida anterior, es el vmk3 y el vmk4.

Una vez que conozcas cul es el nombre del iniciador de software iSCSI (vmhba32)
y de los VMkernel ports (vmk3 y vmk4), ya puedes hacer el binding con el siguiente
comando:
esxcli swiscsi nic add n vmk3 d vmhba33 (crea el binding para el vmk3 VMkernel
port con el iniciador de software iSCSI vmhba33)
esxcli swiscsi nic add n vmk4 d vmhba33 (crea el binding para el vmk4 VMkernel
port con el iniciador de software iSCSI vmhba33)
Para verificar que se han creado bien los binding con los VMkernel ports y el
iniciador de software iSCSI, teclea el siguiente comando:
esxcli swiscsi nic list d vmhba33
Deberas de ver que los dos VMkernel ports estn incluidos en el iniciador de
software iSCSI.
Paso 7: Conecta la cabina iSCSI a tu entorno vSphere ESXi

Entra en la seccin Configuration -> Storage Adapters.


Haz click en iSCSI Software Adapter and selecciona Properties.
Haz clic en la pestaa Dynamic Discovery.
Clic Add.

En la seccin iSCSI Server box, asegrate de poner la IP del grupo o el IP de tu cabina


iSCSI y selecciona Ok.
Recibirs un mensaje que te pide hacer un Rescan de todas las HBAs. Dile que
ests de acuerdo y en unos minutos deberas de ver tus LUNs si estas han sido
configuradas correctamente en tu cabina y los servidores VMware vSphere
ESXi tienen acceso a las LUNs.
Aviso: Ahora para la versin vSphere ESXi 5 es posible hacer el mecanismo de
port binding desde la GUI.
Entendiendo el sistema de archivos VMFS en vSphere

vSphere utiliza un sistema de archivos propietario de VMware llamado VMFS de las siglas en ingles Virtual Machine File System- como sistema de archivos, el
cual est optimizado para ejecutar mltiples mquinas virtuales como una carga de
trabajo nica (workload).
Este sistema de archivos soporta journaling, est optimizado para albergar
mquinas virtuales y soporta funciones de clustering a nivel de sistema de archivos.
vSphere ofrece asignacin dinmica del almacenamiento mediante la
funcionalidad vStorage Thin Provisioning. VMware soporta Thin Provisioning a
nivel de sistema de archivos en VMFS pero, adems, tu cabina de datos debe
soportar Thin Provisioning.
Se pueden acceder a los volmenes VMFS a travs del nombre del volumen, por el
nombre del DataStore o la direccin fsica: vmhba0:0:1:1. Todas las particiones
VMFS y NFS son montadas bajo el directorio /vmfs/volumes en tus servidores
VMware vSphere ESXi.
EL nmero mximo de extenders (nmero de LUNs que podemos unir como si de
una sola LUN se tratara) para un DataStore VMFS es de 32. Por lo tanto, el tamao
mximo de un volumen VMFS es de 64TB menos 16K (metadata).
Los volmenes VMFS que pueden ser "desmontados" con el comando umount son
los DataStores VMFS montados y todos los volmenes NFS. Cuando se elimina un
DataStore VMFS desde un servidor vSphere ESXi, este es eliminado en todos los
servidores vSphere ESXi que tuvieran conectividad con el DataStore. Por eso es
conveniente, siempre que se cambia o reconfigura el acceso a los discos, hacer un
scan del fabric de fibra.
Aviso: Las LUNs (FC e iSCSI) pueden ser formateadas en VMFS-3 con diferentes
tamaos en el block size: 1MB - 256GB, 2MB - 512GB, 4MB - 1024GB y 8MB 2048GB. Por tanto, si formateas un volumen VMFS con un block size de 4MB, el
disco virtual no podr superar el tamao de 1TB (menos 512Bytes). A
continuacin, te muestro la tabla de los block size y el tamao de los ficheros en
VMFS-3:

Nuevo iniciador FCoE en vSphere


Ahora, en la nueva versin de vSphere, es posible instalar un nuevo iniciador de
software FCoE. En el ao 2007, Intel anunci el proyecto Open FCoE, con el
objetivo de dar soporte de FCoE sobre adaptadores Ethernet de 10Gb en el kernel

de Linux, sin necesidad de tener que usar tarjetas especficas de FC como ocurre
con las tarjetas CNAs - de las siglas en ingles Converged Network adapters -.
Actualmente, esta iniciativa ha conseguido el respaldo de Microsoft, Red Hat, SuSe
y ahora de VMware, adems de estar soportada en los conmutadores Brocade y
Cisco, as como en los sistemas de almacenamiento de EMC y NetApp.
Open FCoE est soportado en vSphere 5 y solo hay que activarlo como si fuera
un iniciador iSCSI, o sea activamos el software FCoE Adapter en la configuracin
de los Storage Adapters del host ESXi nos aparecer un dispositivo vmhba (virtual)
que encapsular el trfico FC en un puerto VMkernel, sin la necesidad de tener que
comprar una tarjeta CNA.
Con Open FCoE podremos, en un futuro, utilizar cualquier adaptador que soporte
Open FCoE. Por ahora la lista est limitada a adaptadores Intel X520.
Si esta iniciativa avanza y llega a consolidarse, tendremos ms opciones a la hora de
escoger tarjetas con soporte FCoE.
Como siempre, si la tecnologa FCoE se estandariza veremos tambin unos precios
mucho ms competitivos que los precios de hoy en da.

Entendiendo los diferentes algoritmos de failover en vSphere ESXi

Como he mencionado anteriormente, Multipathing es el proceso por el que el


kernel de VMware ESXi permite el acceso continuo a una LUN en la SAN cuando se
produce un fallo en algn componente hardware: SP, switch de fibra, HBA o un
cable de fibra. Es lo que denominamos failover.
En la actualidad, VMware ESXi 5 soporta failover a nivel de HBA, switch de fibra,
cable o incluso a nivel de procesador de datos de la cabina.
Existen en la actualidad tres algoritmos de failover en vSphere ESXi: MRU (Most
Recently Used), Fixed (prefered path) y RR (Round Robin), siendo este ltimo ms
bien un algoritmo de balanceo de carga que de failover.
El algoritmo MRU, es seleccionado por defecto por vSphere para las cabinas de
almacenamiento Activa/Pasiva mientras que Fixed es seleccionado para las cabinas
de tipo Activa/Activa.
La diferencia elemental de una cabina activa/activa versus una cabina activa/pasiva
es que en las primeras los dos procesadores de datos pueden ejecutar un I/O de
disco en la misma LUN.
Sin embargo, para las cabinas de tipo activa/pasiva solo un procesador de datos
puede hacer un I/O de disco. Esto no significa que en esta configuracin haya un
procesador de datos en modo standby sin hacer ningn I/O de disco. Todo lo
contrario, lo que para una LUN un SP puede estar configurado como pasivo, para
otra LUN este mismo SP puede estar configurado como activo, con lo que los dos
SP estn procesando I/Os pero no a la misma LUN. Esto cambia con el uso de
ALUA, que no es ms que el proceso de convertir una cabina activa/pasiva en
activa/activa mediante la activacin, y valga la redundancia, de la interface de
interconexin interna entre los dos SPs.
Aviso: Para incrementar el rendimiento de una mquina virtual, es posible cambiar
la poltica de multipathing de Fixed a Round Robin para cabinas de tipo
activa/activa.

Captulo 5. VMware vCenter Server

Posiblemente vCenter Server sea considerado el componente ms


importante de una infraestructura virtual en VMware vSphere ESXi. Es, por
tanto, el componente que permite gestionar, centralizadamente, mltiples
servidores VMware vSphere ESXi y mquinas virtuales.
El vCenter Server aade funcionalidad en reas tales como alta
disponibilidad (VMware HA), balanceo de carga (VMware DRS), Fault
Tolerance (FT), actualizacin de componentes (Update Manager) y
conversiones de fsico a virtual (VMware Converter).
Asimismo, en esta nueva versin y, por primera vez, tenemos la posibilidad
de desplegar el vCenter Server en formato appliance el cual est basado en
un sistema operativo Linux. Esto te permitir seleccionar el tipo de
instalacin del servidor de vCenter, Servidor Linux o servidor Windows?
Qu es el VMware vCenter Server?
El servidor de vCenter acta como un nico punto de administracin central
en nuestro entorno de vSphere.
El software de vCenter Server consiste en multitudes de mdulos y servicios
y es instalado en un servidor (virtual o fsico) con el sistema operativo
soportado Windows.
A diferencia de las versiones anteriores, vSphere incluye una nueva versin
de vCenter Server en modo appliance para entornos con Linux. vCenter
Server ofrece las funcionalidades Enterprise, como por ejemplo, VMware
Distributed Resource Scheduler (DRS), VMware High Availability (HA),
VMware Fault Tolerance(FT), VMware vMotion y VMware Storage vMotion.
Una sola instancia de vCenter Server soporta un mximo de 1.000 hosts ESXi
y 15.000 mquinas virtuales registradas (10.000 mquinas virtuales
encendidas). Sin embargo, en el hipottico caso que necesitaras gestionar
ms de 1.000 servidores ESXi o 10.000 mquinas virtuales, tendras que
comprar otra licencia de vCenter y conectar estos sistemas de vCenter en lo
que se denomina un group en mode Linked.
El nmero mximo de servidores de vCenter Server (versin Windows) que
se pueden conectar juntos (modo Linked ) entre si es de diez. Sin embargo, la
versin Linux de vCenter, vCenter Server Appliance, no soporta aun esta
funcionalidad de modo Linked. vCenter Server tambin puede ser instalado
en Linked Mode, en caso de querer ver el estado del servidor de vCenter para
todos los servidores en el inventario.

Asimismo para poder desplegar este appliance en tu entorno virtual tendrs


que formatear el disco y asignar un mnimo de RAM requerida para que
arranque el appliance - Ver tabla de memoria RAM para el appliance ms
abajo -.
Recuerda que no es posible conectar via Linked mode dos vCenter Servers
de versiones diferentes. Por ejemplo, vCenter 4.1 y vCenter 5.0 no se
pueden conectar usando la funcionalidad de Linked mode.
Los requerimientos mnimos para vCenter Server 5 son 2CPUs de 2Ghz de
64bits, 4GB de memoria RAM mnimo y 4GB de espacio en disco duro
mnimo. vCenter Server 5 ya no soporta las bases de datos Oracle 9i ni
Microsoft SQL Server 2000.
Asimismo, el nmero mximo de vCenter Server que se pueden conectar con
el vCenter Orchestrator es de diez. Tambin, el nmero mximo de hosts
conectados a un vCenter Orchestrator es de 1.000.
Aviso: El nmero mximo de mquinas virtuales que pueden conectarse al
vCenter Orchestrator es de 15.000.
Hay tres componentes adicionales al vCenter Server que pueden ser
aadidos al servidor de vCenter cuando sean necesarios:

VMware vCenter ESXi Dump Collector


VMware vSphere Web Client
VMware vSphere Update Manager

vCenter Server requiere que la conectividad ODBC que se crea antes de


instalar el servidor de vCenter, sea de 64bits. Este ODBC para conectar la
base de datos con el vCenter, no es el mismo que el que se usa para conectar
tu vCenter con Update Manager. Adems, la conectividad ODBC para el
servicio de Update Manager ha de ser de 32bits.
En VMware vSphere ESXi es posible usar VMware Update Manager hablaremos de este servicio ms adelante en este libro - para hacer
actualizaciones del nuevo servidor vCenter Server Appliance. Recuerda que
para poder hacer estas actualizaciones, primero has de configurar el vCenter
Server Appliance para permitir actualizaciones desde la pestaa de update en
vCenter Server Appliance

Nuevas funcionalidades en vCenter Server.

Con independencia de la versin de vCenter que instales, Windows o el


appliance Linux, vCenter Server 5 instala, por defecto, los siguientes plug-ins:
VMware vCenter Storage Monitoring, VMware vCenter Service Status y
VMware vCenter Hardware Status, y uno nuevo en la versin 5 llamado Auto
Deploy.
Otra de las nuevas funcionalidades aadidas tanto en la versin vCenter
Server para Windows como para Linux, es el hecho de que no solo podemos
integrar nuestro vCenter en un dominio de directorio activo de Windows,
sino que tambin ahora esta soportado NIS.
Se necesita usar un sistema operativo de 64Bits, ya sea virtual,
fsico,Windows o Linux, donde ejecutar vCenter Server 5.
VMware recomienda no instalar el servidor vCenter Server en un
controlador de dominio. En cuanto a la configuracin IP,
tambin recomienda asignarle una direccin IP esttica, o en su defecto,
registrar el servidor en un DNS si se usa DHCP.
Con vCenter Server podemos gestionar los siguientes servicios de una forma
centralizada: High Availability (HA), Distributed Resource Scheduler (DRS) y
Data Recovery.
VMware soporta vCenter Server en una mquina virtual. Los beneficios son
los siguientes: vCenter puede ser migrado con vMotion, es posible hacer un
backup usando vCenter Data Recovery y ste puede ser protegido con
VMware High Availability.

Los mdulos VMware vCenter Update Manager, VMware vCenter Guided


Consolidation, VMware vCenter Convert, VMware Data Recovery, VMware
vCenter CapacityIQ, VMware AppSpeed Server y VMware Site Recovery
Mananger no estn preinstalados cuando instalamos vCenter Server y, por
consiguiente, deben de ser instalados a posteriori.

A continuacin vemos el plugin vCenter Service Status que verifica el estado


del servicio de vCenter Server. Este aspecto es muy interesante en una
configuracin en modo Linked ya que es posible ver el estado de todos los
servicios de vCenter de sus respectivas instancias desde una sola consola.

Aviso: vCenter Server incluye una consola KVM (de las siglas en ingles
Keyboard, Video and Mouse) embebida en cada mquina virtual registrada en
el vCenter. El nmero mximo de sesiones concurrentes a la consola de una
mquina virtual es de 40.
Prerrequisitos hardware/software de vCenter Server 5
Requerimientos Hardware (Versin Windows):

Procesador: 2 CPUs 64-bit 2.0GHz Intel o AMD x86.


Memoria: 4GB RAM mnimo.
Disco: 4GB recomendado.

Red: Adaptador Ethernet (1 Gigabyte recomendado).

Requerimientos Software:

Windows XP Pro 64-bit, SP2 y SP3


Windows Server 2003 64-bit Standard, Enterprise y DataCenter, SP1
y SP2
Windows Server 2008 64-bit Standard, Enterprise y DataCenter, SP2
Windows Server 2008 R2 64-bit

Los requerimientos de procesador, memoria y disco sern ms altos si la base


de datos de vCenter y Update Manager est instalada en el mismo sistema
virtual o fsico.
Recuerda que el modo Linked an no est soportado en la versin Linux
llamada vCenter Server Appliance.
Aviso: El nmero mximo de datastore que un vCenter puede ver es de 256.
Asimismo, el servicio de vCenter Server requiere un IP fijo y un nombre de
dominio interno registrado en tu servidor de DNS.
Quizs el componente ms importante en vCenter es su base de datos.
vCenter Server 5 almacena todos los datos del inventario, estado de cada
mquina virtual y configuracin de cada Servidor VMware vSphere ESXi, en
una base de datos relacional. Las bases de datos soportadas por vCenter
Server para Windows son las siguientes:
v Oracle
Oracle 10g F2
Oracle 11g
v IBM DB2 9.5 y 9.7
v Microsoft SQL
SQL Server Server 2005 SP3 (recomendado SP4)
SQL Server 2008 R2 Express*
SQL Server 2008
*SQL Server 2008 R2 Express es solo recomendada en entornos pequeos
de hasta 5 hosts ESXi y 50 mquinas virtuales.
En cuanto a la versin Linux de vCenter Server se refiere, los requerimientos
de software son diferentes. No obstante, el usuario o administrador del
entorno virtual, no notar ninguna diferencia con el hecho de tener la versin
Windows o Linux de vCenter instalado en tu entorno.
El servicio de vCenter en modo appliance reduce el tiempo requerido para
instalar y configurar la versin de vCenter en Windows, ya que la versin
appliance para Linux viene pre-instalada.
Sin embargo, a nivel de base de datos el appliance an no soporta SQL. A da
de publicacin de este libro solo soporta Oracle y DB2 (express) como base
de datos.

vCenter Server virtual Appliance usa un kernel versin 2.6.32.29-03 de SuSe


Linux y estos son sus requerimientos:
Requerimientos Hardware (Versin Linux):

Procesador: 2 CPUs 64-bit 2.0GHz Intel o AMD x86.


Disco: 7GB RAM mnimo. Mximo 82GB
Red: Adaptador Ethernet (1 Gigabyte recomendado).
Memoria:
o De 1-10 hosts ESXi o 1-100 mquinas virtuales: 4GB mnimo
recomendado
o De 10-100 hosts ESXi o 100-1.000 mquinas virtuales: 8GB
mnimo recomendado.
o De 100-400 hosts ESXi o 1.000-4.000 mquinas virtules:13GB
mnimo recomendado.
o Para ms de 400 hosts ESXi o 4.000 mquinas virtuales: 17GB
mnimo recomendado

Puedes ver el video tutorial de instalacin y configuracin del vCenter Server


Appliance en nuestro canal de YouTube dedicado en exclusiva a la
virtualizacin de sistemas en espaol:
El servicio vCenter Hardware Status Plug-in

Es posible monitorizar la "salud" del hardware del servidor fsico ESXi. Si la


pestaa "Hardware Status" no est habilitada, comprueba que el plugin
"vCenter Hardware Status" est habilitado.
Para hacerlo, selecciona plug-ins, Plug-in Manager. Con el botn derecho del
ratn selecciona enable.

Recuerda que para que la pestaa Hardware Status te d ms informacin


relativa al estado del hardware fsico del servidor ESXi, el servicio "VMware
VirtualCenter Management Webservices" ha de estar arrancado.

vCenter Server y la configuracin del directorio activo

Por defecto, si eliminas un usuario de tu directorio activo, el cual est


actualmente conectado al servidor de vCenter, el usuario permanecer
conectado hasta 24 horas.

Puedes cambiar esta configuracin modificando el valor de la casilla


Validation Period.
VMware vSphere vCenter Converter

VMware vSphere vCenter Converter es una herramienta gratuita que te


permitir convertir tus mquinas fsicas a mquinas virtuales e incluso sin
prdida de servicio con las conversiones en caliente.
Es posible instalar este software en el mismo servidor de vCenter via plugin
o en modo standalone. Personalmente, prefiero la versin standalone ya que
para mi gusto ofrece una funcionalidad de logs mayor.
Para ejecutar el Converter instalado en modo plugin, selecciona uno de los
servidores ESXi donde quieras convertir una mquina fsica a virtual con el
botn derecho y selecciona Import Machine.
vCenter Converter, tanto la versin plugin como la versin standalone,
soporta imgenes de Symantec Ghost (.gho), Acronis True Image (.tib) ,
StorageCraft y mquinas virtuales tanto Windows como Linux de otros
productos de VMware, como por ejemplo VMware Workstation, VMware
GSX Server, VMware Fusion, VMware ESX, as como de otros proveedores
de software de virtualizacin, como por ejemplo, Microsoft HyperV,
Microsoft Virtual PC, Microsoft Virtual Server y Parallels Desktop.
vCenter Converter soporta conversiones de fsico a virtual (P2V), de virtual a
virtual (V2V) y de imagen a virtual (I2V), pero aun no soporta conversiones

de virtual a fsico (V2P). vConverter requiere tener los siguientes puertos


TCP abiertos: 139, 443, 445 y 902.
Aviso: Recuerda que vCenter Converter tambin se pude utilizar para
convertir mquinas virtuales de otras soluciones de virtualizacin, como por
ejemplo VMware Fusion, Microsoft Virtual Server, Microsoft Hyper-V y
Virtual PC, a formato VMware ESX/ESXi. Es lo que se denomina una
conversin de virtual a virtual o V2V.
vCenter Server en modo Linked Mode

Durante la instalacin de vCenter Server, puedes elegir instalar vCenter en


modo "standalone" o linked mode. La primera instancia del vCenter ha de ser
instalada en modo standalone.
Siempre que se requiera o sea necesario, podemos cambiar el modo ( Linked
Mode o standalone) del vCenter Server.
La opcin del modo Linked mode te permite gestionar todo tu entorno desde
un punto nico central, con independencia a que vCenter server te conectes
con tu vSphere client.
No solamente este modo Linked te facilita la gestin desde una sola consola
en entornos grandes. A veces, no hay ms remedio que configurar nuestros
servidores de vCenter en modo Linked.
Por ejemplo, cuando tienes que registrar ms de 1.000 servidores ESXi o ms
de 10.000 mquinas virtuales encendidas - este es el lmite de una sola
instancia de vCenter Server 5 (versin Windows) -, necesitas modificar la
configuracin de vCenter 5 y configurarlo en modo Linked Mode.
Por supuesto, est claro que necesitars otra licencia de vCenter Server y
otra base de datos en el backend para poder emparejar las dos instancias, o
ms, y superar el lmite mencionado.

No es posible emparejar servidores de vCenter que no pertenezcan a un


domino. Por consiguiente, si quiere emparejar servidores de vCenter en
modo standalone, tendrs primero que incluirlos en un dominio. Los vCenters
que vas a emparejar pueden estar en dos dominios diferentes, como por
ejemplo, vmware.com y Microsoft.com. No obstante, asegrate de configurar
una relacin de confianza bi-direccional en los directorios activos de los dos
dominios para que puedan emparejarse.
Asimismo, el mode Linked se basa en gran medida en el servicio de DNS con lo
que has de asegurarte, antes de empezar el wizard de emparejamiento, que
tu servidor de DNS funciona correctamente.
Por otro lado, si tienes problemas al intentar conectar con tu servidor de
vCenter, verifica si el servicio de Windows de Virtual Center Server est
arrancado en la mquina virtual o fsica donde lo has instalado.
Tambin, puede ocurrir en entornos con servidores ESX que si te quedas sin
espacio en la particin / (root), pueda causar disrupciones en la conectividad
de tu vCenter con el vSphere Client.
Para lanzar el wizard de emparejado, dentro del servidor de vCenter en
Windows, selecciona inicio > programas > vmware > vCenter Server Linked Mode
Configuration.
vCenter Server y las opciones de archivado desde la pestaa Maps

vCenter Server incluye una pestaa llamada Maps la cual puedes usar para
ver una instantnea de cmo est configurado tu entorno virtual. Esta opcin
de Maps, te permite no solo exportar los mapas en diferentes formatos: JPG,
BMP, PNP, GIF, TIFF y EMF sino que ahora, en la versin vCenter Server 5,
podrs imprimirlos directamente a una impresora que tengas configurada en
tu servidor de vCenter.

Para exportar los mapas, selecciona File > Export > Export Maps. Despus,
selecciona la extensin del formato de la imagen a exportar.
Desde el vCenter Maps, puedes ver otros recursos de tu entorno virtual
como por ejemplo DataStore y Host resources.
Recuerda que los iconos en los mapas son interactivos y basta con hacer un
clic con el botn derecho del ratn sobre el icono para ejecutar acciones.
El uso de los mapas tambin es muy interesante para comprobar si tus
mquinas virtuales son compatibles con vMotion.
En la imagen anterior, observamos que la mquina virtual con nombre AD no
puede ser migrada con vMotion al servidor ESXi2.demos.local porque no est
conectada a la red de produccin, entre otras cosas.
Cmo aadir un servidor ESXi al inventario de vCenter Server?
Una vez que hayas instalado el servidor de vCenter (Windows o Linux) ya
podrs aadir tus servidores hosts ESXi al inventario para que estos puedan
ser gestionados y configurados.
Para aadirlos, previamente has de crear un objeto de inventario de tipo
DataCenter. Simplemente, selecciona con el botn derecho del ratn el
objeto inventario raz - el objeto de inventario raz del vCenter es el nombre
de red que le hayas dado a tu servidor de vCenter - y selecciona create
DataCenter.
Despus de que hayas creado el objeto de inventario DataCenter,
seleccinalo este objeto con el botn derecho del ratn y elije Add Host

Luego, introduce los datos de tu servidor ESXi, nombre de host, usuario y


contrasea y selecciona siguiente.

Durante la inclusin de tu servidor ESXi al inventario de servidor de vCenter,


este enviar un agente de gestin al servidor ESXi llamado vpxa. Desde ese
momento, este agente ser utilizado por el vCenter para gestionar tu
servidor ESXi.
Puede ser que no sea posible aadir un servidor ESXi al inventario y recibas
este error:

Entre las posibles razones es que haya algn problema de comunicacin


entre el vCenter y el servidor ESXi o el agente de gestin del servidor ESXi
(hostd) no est funcionando correctamente.
Para asegrate de que el agente ESXi est funcionando, entra en la consola y
ejecuta el siguiente comando:
~ # ps | grep hostd
2847 2847 hostd-worker
2848 2847 hostd-poll

hostd
hostd

2849 2847 hostd-worker

hostd

2850 2847 hostd-worker

hostd

2865 2865 nssquery

/usr/libexec/hostd/nssquery

2866 2847 hostd-worker

hostd

2873 2847 hostd-worker

hostd

3044 3044 nssquery

/usr/libexec/hostd/nssquery

3070 2847 hostd-vix-high3071 2847 hostd-vix-poll


3359 2847 hostd-hbr

hostd
hostd
hostd

3360 2847 hostd-worker

hostd

3361 2847 hostd-worker

hostd

3362 2847 hostd-worker

hostd

3475 2847 hostd-worker

hostd

3476 2847 hostd-worker

hostd

~#
Si este agente estuviera parado, puedes arrancarlo desde la consola DCUI de
tu servidor ESXi seleccionado F2 > Restart Management Network.

El plugin de vCenter para hacer backups de las mquinas virtuales, VMware


Data Recovery

VMware Data Recovery es un appliance basada en Linux la cual nos permite


hacer backup/restore de todas nuestras mquinas virtuales Linux o Windows,
incluso con las mquinas virtuales encendidas.
Te puedes descargar este appliance desde la pgina web de VMware,
siempre y cuando te hayas registrado o tengas un usuario vlido. Una vez
descargado, la instalacin en vCenter sigue el mismo proceso de instalacin

de cualquier otro appliance basado en OVF - de las siglas en ingls Open


Virtualization Format -. Puedes ver un video tutorial de instalacin de este
appliance
en
nuestro
curso
online
gratuito
en
esta
direccion: http://www.josemariagonzalez.es/curso-online-gratuito
Aparte de este appliance, la cual es la parte servidor, has de instalar el
ejecutable VMwareDataRecoveryPlugin.msi en el sistema donde estas
ejecutando vSphere Client, el cual es la parte cliente.
Desde el men Plugins, Manage Plugins puedes ver el Plugin Manager. Hay dos
pestaas de configuracin, la pestaa Available y la pestaa Installed.
En la ventana Plugin Manager puedes hacer el "Download & install" de la parte
cliente del plugin. Sin embargo, el plugin no estar definitivamente instalado y
visible en vCenter hasta que ste no se habilite desde el Plugin Manager.
Recuerda que para usar y licenciar VMware Data Recovery has de tener
mnimo la licencia Essentials Plus.
Aviso: Para habilitar un plugin es necesario descargar e instalar el plugin
desde el servidor donde te ests conectando con el vSphere Client. Con el
Plugin Manager puedes habilitar un plugin y ver los plugins disponibles que no
estn instalados.
Calculando el tamao de la base de datos de vCenter

El tamao de la base de datos de vCenter vara dependiendo del nmero de


servidores ESXi y de las mquinas virtuales que tengas registradas, pero por
cada 50 mquinas virtuales necesitars, al menos, 700MB extra de espacio
en disco.

Desde la opcin vCenter Server Setting > Statistics > Database Size puedes
crear simulacros cobre el tamao necesario para la base de datos de tu
vCenter. Recuerda que esta opcin es solo un simulacro y no cambia nada de
tu configuracin.
Aviso: En la imagen anterior, la cantidad de espacio estimado es para una
base de datos SQL. Si vas a utilizar en tu entorno una base de datos con
Oracle, asegrate de dividir por dos el valor mostrado con esta utilidad.

Captulo 6. Mquinas Virtuales en vSphere

Una de las formas ms eficientes de desplegar mquinas virtuales es


mediante el uso y creacin de plantillas (templates). Una vez que la plantilla
haya sido creada, podrs crear mquinas virtuales de una manera mucho ms
rpida, automatizada y sin errores.
Otros mtodos de creacin de mquinas virtuales incluye la funcionalidad de
cloning, la importacin de plantillas o incluso la creacin de mquinas
virtuales desde una conversin de un servidor fsico a virtual con el VMware
vConverter.
Los distintos ficheros que forman una mquina virtual

Una mquina virtual es un conjunto de ficheros en donde se ejecuta el


sistema operativo y las aplicaciones.
Los tres ficheros ms importantes que forman una mquina virtual son: el
fichero BIOS(.nvram), el fichero de configuracin (.vmx) y el fichero del disco
virtual (.vmdk).
Para poder acceder a la BIOS de una mquina virtual, presiona F2 cuando la
mquina virtual est arrancando o edita la configuracin de la MV para forzar
que entre en la BIOS cuando se encienda.
Adicionalmente, los ficheros de snapshot de una mquina virtual son:
00000#-delta.vmdk, 00000#.vmdk y SnapshotNombre.vmsn.
Los ficheros con extensin .vmem corresponden a la memoria de la mquina
virtual mapeada a un fichero. Este fichero solo existe si la mquina virtual
est encendida o tiene un snapshot. Los ficheros con extensin .vmss
corresponden al fichero de una mquina virtual en modo suspendida.

El fichero VM_nombre-flat.vmdk es el que se tiene en cuenta a la hora de


determinar el tamao apropiado para calcular el fichero de paginacin en
Windows o la particin swap en sistemas Linux.
Si conviertes la mquina virtual a una plantilla, el fichero de configuracin de
sta (.vmx) es reemplazado por el fichero de configuracin de una plantilla
(.vmtx).
Cuando una mquina virtual experimenta un fallo (BSOD o kernel panic en
Linux), el servidor ESXi crea un fichero core dump en el mismo directorio
donde reside el fichero de configuracin de la mquina virtual. Asimismo, las
mquinas virtuales incluyen otro fichero llamado CBT - de las siglas en ingles
Change Block Tracking el cual es usado por VMware Data Recovery para
saber cules son los bloques que han cambiado a nivel de mquina virtual
para solo hacer un backup de estos bloques modificados durante el ltimo
backup.
Una mejor prctica en cuanto a la nomenclatura a usar en el nombre de las
mquinas virtuales, es intentar evitar usar caracteres especiales, como por
ejemplo, espacios.
Aviso: En vSphere 5 vers un segundo fichero swap con el nombre vmx<vm_name###>.vswp el cual contiene la cantidad de memoria overhead
reclamada por la mquina virtual. Este mecanismo ayuda a incrementar el
nmero del ratio de consolidacin por servidor con respecto a versiones
anteriores.
Las VMware tools: Qu son y cmo se instalan?
Otra muy buena prctica en cuanto a las mquinas virtuales se refiere, es la
instalacin de las VMware Tools despus de la instalacin del sistema
operativo.

Las VMware tools se instalan como una aplicacin ms dentro de la mquina


virtual. Selecciona la mquina virtual desde el inventario, haz un clic derecho
con el ratn y selecciona Install/Upgrade VMware Tools.
Las VMware tools incluyen los siguientes drivers: SCSI, SVGA, ratn,
VMXNET 3 adaptador de red, Memory Control (ballooning), Filesystem Sync
y soporte para el servicio Windows: Volume Shadow Copy Services (VSS).
El driver de ballooning es tambin conocido como vmmemctl driver y su
principal misin es "reclamar" memoria no usada a las mquinas virtuales. La
mxima cantidad de memoria que el driver vmmemctl puede reclamar a una
MV es de un 65% de la memoria no reservada.
En vSphere 5, VMXNET 3, es el nombre del adaptador de red
"paravirtualizado" de alto rendimiento. Este adaptador solo est soportado
en mquinas virtuales con hardware virtual versin 8 (Las mquinas virtuales
en vSphere ESX/ESXi 4.x usan hardware virtual versin 7 y en vSphere
ESXi 5 el hardware virtual es versin 8).
Asimismo, las VMware Tools mejoran el movimiento del ratn, la gestin de
la memoria y tambin permiten hacer shutdown de la mquina virtual desde el
men de inventario del vCenter.
El mximo de memoria RAM que una mquina virtual puede tener
configurado en vSphere 5 es de 1TB. Una mquina virtual puede fallar al
encenderla, si la reserva de memoria asignada a esta mquina virtual no
puede ser garantizada por el VMkernel con lo que cuidado con hacer
reservas de memoria altas en tus mquinas virtuales.
Usa Ctrl + Alt + Ins en lugar de Ctrl + Alt + Del para entrar en la consola de
una mquina virtual.
Qu es un vApps y cmo crearlo en vSphere?

Un vApp en VMware es la entidad lgica constituida por una o varias


mquinas virtuales, que utilizan el formato OVF para especificar y encapsular
todos los componentes de una aplicacin multinivel, as como las polticas y
niveles de servicio asociados a la misma.
El nmero mximo de caracteres que puedes usar para crear el nombre de un
vApp es de 80. Este tipo de contenedores es ideal para aplicaciones
multitiered donde tenemos aplicaciones o mquinas virtuales en el backend,
front-end y en el midle-tier. De esta forma, al agrupar las distintas mquinas
virtuales en un solo vApp podemos encenderlas, apagarlas y clonarlas con un
solo clic de ratn.
Los objetos que pueden ser incluidos en un vApp son los siguientes:

Resource Pools
Mquinas Virtuales
vApps, es decir, un vApp dentro de otro vApp.

Para poder crear un vApp es necesario que se cumplan las siguientes


condiciones:
1. Debes habilitar la opcin de DRS en el clster, aunque tambin es posible
crear un vApp en un servidor ESXi en modo standalone
2. La versin del servidor debe ser ESX 3.x o superior.
3. Debes elegir una carpeta dentro de la vista "Virtual Machine and
Templates".
Una vez que hayas creado un vApp - usa el wizard de creacin de vApps
( File > New > vApp) hay tres opciones en el IP Allocation Policy para un vApp:
Fixed, Transient y DHCP. Esto indica el mecanismo que tienen las mquinas
virtuales para ser configuradas con una IP de red.
Si las opciones de vApp estn deshabilitadas en las propiedades de la
mquina virtual que forma parte de un vApp, no podrs editar el IP Allocation
Policy como vemos en la siguiente imagen.

Asimismo, dentro del vApp en la pestaa de configuracin Start Order,


puedes seleccionar que mquina virtual arranca antes, cual es la secuencia de
arranque del vApp y el delay en segundos que quieres configurar entre el
arranque de las mquinas virtuales.
Qu son los clones y plantillas y cmo crearlas en vSphere?

Un clone es una copia exacta de la mquina virtual (mismo SID, hostname,


direccin IP, etc) y es posible hacer dicho clone mientras la mquina virtual
est encendida. No obstante, la MAC virtual de la tarjeta virtual del clone es
diferente para evitar tener ms de una mquina virtual con la misma MAC
virtual.

La opcin Clone to Template, crea una plantilla de una mquina virtual ya


configurada. Esta mquina virtual es marcada como plantilla y no podr ser
encendida hasta que la plantilla sea convertida en mquina virtual (Convert to
Virtual Machine). Si precisaras actualizar una plantilla (service pack, etc),
debers convertir la plantilla a mquina virtual, actualizarla y posteriormente
convertirla de nuevo en plantilla.
Para poder cambiar la identidad de un clone o template desde vSphere
Client, es necesario usar Sysprep, una herramienta de Microsoft incluida en
el CD del sistema operativo (deploy.cab)
No obstante, has de copiar a mano los archivos de Sysprep en el directorio
"C:\Documents and Settings\All Users\Application Data\VMware\VMware
VirtualCenter\sysprep" del servidor de vCenter. Ah debers ubicar los
diferentes Sysprep segn las versiones de Windows que indican los
diferentes subdirectorios que existan. En caso de no copiar los ficheros de
Sysprep, no podrs hacer ninguna parametrizacin de clones o plantillas.

Adicionalmente, si quieres personalizar una mquina virtual Linux, has de


instalar Perl en el sistema operativo Guest.
La opcin, Convert to Template, convierte una mquina virtual en plantilla. La
mquina virtual debe estar apagada. El uso de plantillas ofrece varios
beneficios fundamentales: usan menos espacio en disco y stas no pueden
ser modificadas hasta que no se conviertan a mquinas virtuales. De igual
forma, se asegura un despliegue rpido y sin esfuerzo de las mquinas
virtuales a la vez que se estandarizan las mismas.
Cuando creas un clone o template de una mquina virtual que tiene discos
RDM en formato "Physical Compatibility Mode", la mquina virtual

resultante crea el disco RDM pero cambia el formato a "Virtual Compatibility


Mode". Recuerda que es posible hacer clones y templates de mquinas
virtuales con discos RDM.
La caracterstica fundamental de un disco RAW en modo "Physical
Compatibility mode" es que permite al sistema operativo "Guest" acceder al
hardware directamente sin que el VMkernel haga ninguna traduccin binaria
de las instrucciones.
Dos de los grandes beneficios de un disco RDM en modo virtual es que
podrs usar las funcionalidades de cloning y plantillas.

Aviso: Las mquinas virtuales que usan discos FC RDM te permitirn usar
software de clustering, agentes de gestin SAN y software SCSI dentro de la
misma mquina virtual.
El tamao mximo de un RDM soportado en VMware vSphere 5 y en modo
fsico es de 64TB. Las mquinas virtuales en un DataCenter pueden ser
clonadas a otro diferente, pero no pueden ser migradas con vMotion.

Cmo habilito o deshabilito la opcin de logging en la mquina virtual?

Es posible habilitar o deshabilitar la opcin de logging para un nmero


determinado de mquinas virtuales. Edita las propiedades de la mquina
virtual desde el vSphere Client, bajo Options, selecciona Advance y despus
General.
Por defecto, la opcin de logging para las mquinas virtuales est activada.
Una de las posibles razones por la que quizs quieras desactivar esta opcin,
podra ser el poder maximizar el espacio disponible en los DataStores. No
confundas la opcin de login con la de logging.
Hay seis archivos de log que siempre se mantienen archivados para todas y
cada una de mquinas virtuales existentes en tu entorno. Por ejemplo, de 1.log a -6.log son los ficheros logs de las mquinas virtuales que se crearn
por primera vez cuando se cree una mquina virtual.
La prxima vez que un archivo de log sea creado, por ejemplo, cuando una
mquina virtual es apagada o encendida, ocurre lo siguiente:

Los ficheros de -2.log a -7.log son mantenidos y el fichero -1.log es


borrado.

Despus, los ficheros -3.log a -8.log son mantenidos y as


sucesivamente.

Mejoras en la funcionalidad de vMotion en vSphere

vSphere ESXi 5 permite desplegar mquinas virtuales entre diferente


centros de datos. Tambin te permite clonar una mquina virtual desde un
centro de datos a otro.
Asimismo, es posible desplegar una mquina virtual desde una plantilla
localizada en un centro a otro centro de datos diferente.
Por ejemplo, podras clonar una mquina virtual Windows desde el centro de
datos Data Center A al Data Center B. Sin embargo, no es posible migrar en
caliente una mquina virtual con VMotion desde un centro de datos a otro. El
error que se muestra en el vSphere Client es: "The input arguments had
entities that did not belong to the same datacenter".
Una de las mejoras de vMotion en la nueva versin de vSphere ESXi 5 es el
hecho de poder crear diferentes vmknics y agruparlas en un mismo VSS para
poder incrementar la velocidad de las migraciones en caliente.
Asimismo, VMware vSphere ESXi 5 incluye Metro vMotion. Ahora, con
Metro vMotion, no slo tendrs un mejor rendimiento de tus migraciones en
redes con una latencia muy alta, sino que tambin, el RTT - de las siglas en
ingles round trip time - ha aumentado de cinco a diez milisegundos.
Antes de la versin vSphere 5.0, vMotion slo soportaba
redes con latencia de ida y vuelta de hasta cinco milisegundos. Con Metro
vMotion y VMware vSphere 5.0, podrs migrar en caliente tus mquinas
virtuales cuando el host de origen y el host destino tienen una
latencia superior a 5 milisegundos.

Por supuesto, la mala noticia es que para poder disfrutar de Metro vMotion
necesitas, al menos, licencia Enterprise plus.
Configurando el Power Management en las mquinas virtuales

Las opciones de Power Management te permiten especificar como responde


una mquina virtual cuando el sistema operativo Guest es puesto en standby.
Estas opciones estn disponibles para todas las mquinas virtuales. No
obstante, la opcin de Wake on LAN (WOL) solo est soportado para
sistemas operativos Windows y en alguno sistemas operativos Linux y no
est disponible en las tarjetas virtuales que utilicen el driver Vlance, es decir,
aquellas mquinas virtuales en las que las VMware tools no estn instaladas
en el SO Guest. Otra razn importante para instalar las VMware Tools.

Migraciones vMotion con High Priority o Low Priority?

Hay dos requerimientos fundamentales para poder hacer migraciones con


VMware:
1. Los dos servidores vSphere ESXi 5 involucrados en la migracin tienen
que estar conectados via red Ethernet Gigabyte.
2. Las mquinas virtuales deben tener acceso a las mismas subredes en los
host vSphere origen y destino.
VMware vMotion permite mover una mquina virtual desde un servidor ESXi
a otro. Una migracin en fro (cold migration), mueve una mquina virtual
apagada y permite reubicar su disco virtual en otro DataStore. La migracin
en frio (es decir con la mquina virtual apagada) pueden ejecutarse entre
CPUs de distintos fabricantes, Intel y AMD. Para migraciones con VMware
vMotion en caliente, las CPUs han de ser compatibles dentro de la misma
familia de procesador y del mismo fabricante.
Las migraciones en caliente (hot migration) pueden fallar cuando activamos
el soporte VMI Paravirtualizacin en la mquina virtual del host ESXi origen y
el host destino no tiene soporte para VMI Paravirtualizacion. Por cierto, no te
cuento que es VMI paravirtualizacin pues VMware lo ha desactivado en
esta nueva versin.
Recuerda que la migracin en caliente, mueve la mquina virtual de un
servidor ESXi a otro pero no mueve su disco virtual.
Una migracin con High Priority (Reserve CPU for Optimal VMotion
performance) reserva recursos en el host destino, por tanto, la migracin
puede que no se ejecute si el host destino no tiene recursos suficientes.

Una migracin con Low Priority (Perform with available CPU resources) no
reserva recursos en el host destino, por tanto, migraciones con low priority
siempre se ejecutan con xito, aunque es posible que el proceso de migracin
sea ms largo.
Recuerda que el nmero mximo de migraciones en caliente con vMotion,
para una red de 1Gb/s, es de 4 migraciones simultneas. Sin embargo, para
una red de 10Gb/s, el nmero de migraciones simultneas con vMotion sube
hasta 8.
Asimismo, el nmero mximo de migraciones simultneas con vMotion por
datastore es de 128.
Una mquina virtual que est usando VMDirectPatch I/O no puede ser
migrada con vMotion. VMotion soporta mquinas virtuales con discos RDM
(Raw Device Mapping) en compatibilidad fsica as como discos en modo thick
o thin.
Dicho sea de paso, el disco de una mquina virtual puede ser convertido de
thick a thin mientras que la mquina virtual est encendida y usando Storage
vMotion. Asimismo, la misma mquina virtual puede ser "inflada" de thin a
thick, pero solo mientras la mquina virtual est apagada usando la opcin de
inflate como muestro en la siguiente imagen:

Aumentando el rendimiento de las mquinas virtuales con Storage VMotion

Una manera de optimizar el Storage para aumentar el rendimiento de las


mquinas virtuales es a travs de Storage vMotion.
En el ejemplo anterior, si la LUN de la izquierda se convierte en un cuello de
botella, todo lo que tienes que hacer es crear una nueva LUN VMFS y mover
las mquinas virtuales en caliente - a la nueva LUN. La LUN origen y LUN
destino pueden tener una configuracin RAID diferente.

Captulo 7. Control de acceso en vSphere

El control de acceso en vCenter Server y ESXi permite controlar el acceso a los


recursos y mquinas virtuales en un entorno virtual con mltiples usuarios de una
manera mucho ms flexible y dinmica.
Cmo son los premisos en vSphere?

El modelo de seguridad de vCenter (user/group, role y privilegios) y VMware


vSphere ESXi difiere del modelo tradicional de otros sistemas operativos, como
por ejemplo Windows o Linux.
En VMware vSphere, el sistema de control de acceso permite al administrador de
vCenter definir accesos y privilegios a todos y cada uno de los objetos de
inventario visibles en vCenter.
Este sistema de control de acceso es definido de la siguiente manera:
Privilegio: La posibilidad de ejecutar ciertas acciones en vCenter como por
ejemplo, encender una mquina virtual, crear una alarma, crear un clster y
etctera.
Role: Es un conjunto de privilegios y una forma de agrupar todos los privilegios
individuales en una sola entidad.
Objeto: Se refiere al objeto de inventario, Resource Pool, mquina virtual,
DataCenter, carpeta, en donde se aplican los permisos.
Usuario o grupo: Se refiere al usuario o grupo que puede ejecutar una accin
determinada.

La combinacin de un role, un usuario o grupo ms el objeto representan los


permisos en VMware vSphere.
Los roles predefinidos en VMware vSphere ESXi son: No Access, Read-only y
Administrator. Asimismo, si en tu entorno cuentas con VMware vCenter este
tendr los siguientes roles definidos por defecto: Virtual Machine Power User,
Virtual Machine User, Resource Pool Administrator,VMware Consolidated Backup
User, Datastore consumer, Network consumer.
Es posible definir nuevos roles a nivel de host ESXi, aunque no es una mejor
prctica ya que estos roles creados a nivel de host no se propagan al servidor
vCenter Server por lo que es recomendable crear nuevos roles en el servidor de
vCenter. El role del vCenter Server, Virtual Machine Administrator, tiene por
defecto, privilegios de performance.
Asimismo, el role predefinido a nivel de vCenter llamado administratror puede
hacer cualquier tarea en cualquier objeto del inventario de los servidores ESXi.
Orden de prioridad de los permisos en vSphere

Los permisos son asignados a los objetos de inventario (DataCenter, clster,


Servidor ESX/ESXi, Resource Pool, Mquina Virtual) del vCenter, mediante la
asociacin de un usuario o grupo con un role.
Si un usuario es miembro de mltiples grupos con diferentes permisos en
diferentes objetos, los permisos se "suman".
Recuerda que cuando asignes permisos directamente a un servidor vSphere ESXi,
no podrs asignar permisos en carpetas y virtual machines.
Los permisos definidos explcitamente a un usuario en un objeto, tienen
preferencia sobre los permisos definidos a un grupo sobre el mismo objeto.

Un Resource Pool Administrator puede mover un Resource Pool y modificar


permisos dentro de su Resource Pool.
Un Datacenter Administrator puede crear Resources Pools y aadir hosts al
inventario.
El role No Access, permite a un administrador eliminar los permisos en un objeto
que de otra forma se hubiesen propagado.
El role Administrator, predefinido en vCenter Server, es el nico que puede asignar
permisos a los usuarios. Los dos nicos usuarios asignados a este role son el
usuario root y el usuario vpxuser.
Asimismo los permisos aplicados directamente a un objeto del inventario,
sobrescriben los permisos heredados (Propagate to Child Objetcs).
Si un usuario o grupo pertenece a un role en vCenter Server y el role es borrado, los
usuarios o grupos asignados a ese role no tendrn permisos en vCenter.
Aviso: Si quieres restringir la posibilidad que un administrador pueda instalar plugins con vSphere Client, debes modificar los permisos de dicho administrador y
eliminar el permiso Register Extension privilege.
Clonando roles en VMware vSphere

En vSphere, es posible clonar los roles preestablecidos. Pero, cul es el objetivo


de clonar un role? Bien, los roles pre-establecidos cumplen su misin en el 99% de
los entornos de los clientes. No obstante, hay veces en los que hay que crear un
nivel de granularidad, a nivel de permisos, ms concreto y preciso.
Por consiguiente, una mejor practica es la de no cambiar los privilegios en los roles
existentes, sino, crear un clone de ese role, renmbralo con el nombre que ms se
ajusta a nuestro entorno y despus cambiar los privilegios que sean necesarios en
este role clonado.
Cuando clonas un role, el nuevo contendr los mismos privilegios que el role
original. Asimismo, el role clonado no incluir ningn usuario o grupos del original.

Otra de las mejores prcticas, en cuanto al uso de roles y usuarios se refiere, es la


de no usar el usuario de Windows Administrator para gestionar la infraestructura
vSphere. Es conveniente crear un usuario y asignar este usuario el role
Administrator.
Si el servidor donde instalamos vCenter es parte de un dominio de Windows, el
grupo del directorio activo Domain Admins es incluido en el role Administrator en el
objeto raz Host & Clusters.
Es tambin una mejor prctica instalar el servidor de vCenter en un servidor que
se parte de un dominio para poder hacer as uso de los usuarios y grupos de este
dominio.
Entendiendo el significado del usuario vpxuser

Los usuarios del servidor ESXi, root y vpxuser, son asignados al role Administrator a
nivel del servidor ESXi.
El usuario vpxuser es una copia exacta del usuario root y el motivo de la existencia
de este usuario es permitirte cambiar la contrasea de root desde el vSphere
Client sin perder la conexin con el vCenter.
El usuario vpxuser no tiene ningn derecho (login, shell). Es muy buena prctica no
modificar las propiedades de este usuario ya que podramos, involuntariamente,
alterar el buen funcionamiento del servicio de logon en el host ESXi.
Este usuario vpxuser se crea al aadir el servidor ESX/ESXi al inventario del
vCenter.
Aviso: Si modificas las propiedades de este usuario, que dicho sea de paso no es
una mejor prctica, es muy probable que no puedas gestionar tu servidor ESXi
desde el vCenter. Para poder corregir esta situacin, sigue los siguientes pasos.
1. Desregistra y borra tu servidor ESXi del inventario de vCenter

2. Conctate directamente con el vSphere Client a tu servidor ESXi


3. Borra el usuario vpxuser
4. Vuelve a conectar y aadir tu servidor ESXi al inventario de vCenter
Configurando el Firewall en vSphere ESXi

En la versin ESXi, la red de gestin (Management Network) est protegida por un


firewall orientado a servicios el cual puede ser configurado usando vSphere Client
o va comando desde la consola del Shell de ESXi (esxcli network rewal).
Con el comando esxcli network rewal podrs abrir desde consola uno o varios
puertos del firewall de tu servidor vSphere ESXi 5.
~ # esxcli network firewall
Usage: esxcli network firewall {cmd} [cmd options]
Available Namespaces:
ruleset

Commands to list and update firewall ruleset configuration

Available Commands:
get

Get the firewall status.

load

Load firewall module and rulesets configuration.

refresh

Load ruleset configuration for firewall.

set

Set firewall enabled status and default action.

unload

Allow unload firewall module.

~ # esxcli network firewall get


Default Action: DROP
Enabled: true
Loaded: true
~#
Aviso: El firewall del servidor vSphere ESXi ya no est basado en Linux IP Tables.
En su lugar, se han definido reglas y puertos por cada servicio. De esta forma ,
ahora es posible especificar el IP o el rango de IPs que quieres permitir o denegar
un servicio en concreto.
La pestaa de services dentro de las propiedades del firewall, te permitirn ver el
nombre y el estado del servicio, es decir, si esta arrancado o parado.

Puedes configurar un servidor para que arranque con el host, para que arranque
manualmente o que arranque automticamente si otros puertos estn abiertos o
cerrados.
El firewall en ESXi est configurado, por defecto, con seguridad alta, bloqueando
todo el trfico de entrada y salida que no es necesario para el correcto
funcionamiento de vSphere y sus plugins.
Habilitando y deshabilitando el Lockdown mode en vSphere
Lockdown mode deshabilita todos los accesos directos a los hosts ESXi. De esta
forma solo ser posible acceder a tu servidor ESXi desde el vSphere Client
conectndose al vCenter.
Por defecto, no existe ningn usuario local en los hosts ESXi con lo que si quieres
crear un usuario local en tu servidor ESXi asegrate de hacerlo antes de activar el
Lockdown mode ya que despus de estar activado no podrs crear usuarios
locales.
Cmo podemos activar Lockdown Mode?
1. Desde la DCUI

2. Al aadir el host para ser gestionado por vCenter Server

3. Desde vCenter Server haciendo clic sobre host > Configuration > Security Profile

Integrando ESXi con el directorio activo


Aunque las tareas diarias de administracin y gestin de un entorno virtual con
vSphere se realizan generalmente desde el vSphere Client conectndose
directamente al vCenter, en ciertas ocasiones puede que sea necesario acceder
directamente a los servidores ESXi. Por ejemplo, cuando queremos acceder
directamente a los logs locales de un servidor ESXi o para hacer un backup local de
dicho servidor.

En este caso, es una mejor prctica configurar tus servidores ESXi para que se
unan a un dominio del directorio activo para que los usuarios que necesiten tener
acceso local tengan que identificarse contra un directorio centralizado (AD).
La ventaja de este modelo es que t, como administrador, puedes seguir usando los
usuarios o grupos de tu directorio activo o NIS para conceder acceso local a tus
servidores ESXi. Este modelo es ms seguro y fcil de implementar que el tener
que crear cuentas independientes locales por cada uno de tus servidores ESXi.
Por supuesto, una vez que integres tu servidor ESXi con tu directorio activo o
servidor NIS, podrs seguir teniendo la posibilidad de crear usuarios o grupos
locales a nivel de ESXi.
Para aadir tu servidor ESXi a tu directorio activo selecciona la pestaa de
Configuration > Authentication Services

Una vez dentro de este men bsicamente tienes que introducir los datos de tu
domino (nombre, usuario y passowrd) y seleccionar Join Domain
Aviso: ESXi 5 automticamente concede acceso de administrador al grupo del
directorio activo llamado ESX Admins lo cual permite la creacin de otros grupos
de administradores globales.

Captulo 8. Gestin de recursos en vSphere

Los Resource pools permiten asignar CPU y memoria dinmicamente. El clster


VMware DRS ofrece una herramienta extraordinaria para la gestin de recursos
de una forma mucho ms centralizada.
El uso de resource pools, lmites, reservas y shares es considerado por VMware
una mejor prctica para garantizar el uso de los recursos que las mquinas
virtuales requieren. Asimismo, es muy recomendable garantizar a cada usuario los
permisos necesarios, y no ms de los necesarios, para que puedan cumplir con su
obligacin, que no es otra que la administracin del entorno virtual.
Qu es un Resource Pool con memoria reservada?

Un resource pool es una abstraccin lgica (contenedor) el cual permite asignar


recursos de CPU y memoria de forma ms dinmica y eficiente. Por tanto, los
recursos de un servidor ESXi o un clster DRS pueden ser divididos y asignados
ms eficientemente.
Los beneficios de un resource pool son los siguientes:
1. Facilidad de delegacin y control de acceso.
2. Separacin de los recursos del hardware.

Los resource pools pueden ser creados a nivel de servidor ESXi o clster VMware
DRS, pudiendo ser editados y modificados dinmicamente.
El indicador amarillo durante el ajuste de los recursos en un resource pool, muestra
la cantidad recomendada para ese recurso.
El memory overhead de las mquinas virtuales tambin consume memoria en el
resource pool y, por lo tanto, esta memoria es incluida en la reserva del resource pool.
Aunque VMware recomienda el uso y las buenas prcticas dentro de los resource
pool, no es aconsejable crear una jerarqua de ms de tres resource pools. La
profundidad mxima de esta jerarqua en los resource pools es de 8. Esto creara
un nivel de burocracia excesivo en cuanto al control de acceso se refiere.
Aviso: El nmero mximo de resource pools por host es de 1.600
Cambiando los recursos desde el Resource Allocation

Puesto que todas las mquinas virtuales acceden directamente a los recursos
fsicos, estas no sabrn qu hacer cuando todas las mquinas virtuales estn
accediendo a los mismos recursos, es decir, cuando haya contencin en tu sistema.
Por consiguiente, vSphere incluye un mecanismo para controlar que mquina
virtual accede a que recursos y por cuanto tiempo y prioridad.
Cuando la memoria o la CPU de un servidor ESXi est en overcommitted, es decir,
las mquinas virtuales estn configuradas con ms memoria y ciclos de reloj de
CPU de lo que dispone fsicamente el servidor ESXi, necesitamos tener un
mecanismo para garantizar los accesos.
Es aqu donde entran los conceptos de Shares, Limits y Reservation.

Limit: Es el valor consumido de ciclos de reloj de CPU o memoria fsica del servidor
ESXi del cual no es posible pasarse.
Reservation: Este valor es definido en Mhz para CPU y MB para memoria RAM y
representa un valor que debe estar disponible cuando la mquina virtual se
enciende.
Shares: Es un valor que especifica la prioridad relativa o la importancia de acceso de
una mquina virtual a un recurso determinado. Los shares compiten entre el lmite
y la reserva.
Por consiguiente, con estos tres parmetros podemos definir SLAs - de las siglas en
ingls Sevice Level Agreement - para todas y cada una de nuestras mquinas
virtuales. Los shares, limits y reservation tambin estn disponibles a nivel de
resource pool.
Nota que cuando no hay contencin entre mquinas virtuales, el cambio de la
configuracin de los shares no tiene ningn efecto. No obstante, cuando hay
contencin entre dos mquinas virtuales a nivel de CPU y defines unos shares ms
altos a una mquina virtual, estars dando una prioridad ms alta a esta mquina
virtual sobre la otra.
Es posible cambiar el valor de los shares de CPU y la reserva de memoria desde la
pestaa Resource Allocation a nivel de Cluster o a nivel de host ESXi cuando este
no est configurado en un clster.
Asimismo, tambin es posible modificar en "caliente" la reserva de CPU y el tipo de
reserva, Fixed o Expandible.
Cuando una mquina virtual, con la configuracin en shares de memoria en custom,
es aadida a un resource pool, es posible que recibas un warning que indica que la
mquina virtual obtendr un porcentaje muy alto del total de los shares para la
memoria. Cambia la configuracin de los shares de custom a high, medium o low
para evitar este warning.
Cuando aades un servidor vSphere ESXi a un clster y la opcin de DRS no est
habilitada, los resource pools que estaban en el servidor vSphere ESX/ESXi son
eliminados. Asimismo, si creas un clster sin la opcin de DRS, no podrs crear
resource pools a nivel de clster.
Cambio dinmico de los Resource Pools
Es posible incluir ms de una mquina virtual en un mismo resource pool. En este
caso, todas las mquinas virtuales del resource pool competirn por los mismos
recursos fsicos especificados en el resource pool.
En el caso de que el resource pool no haya sido configurado con la opcin
Explandable Reservation, el rendimiento de las mquinas virtuales puede llegar a
verse afectado.

Para incrementar el rendimiento de alguna mquina crtica que este dentro de


dicho resource pool, puedes aumentar el lmite de CPU del mismo. Los resource pools
que estn en un mismo nivel son llamados Sibling Pools.
Qu tamao deberan tener mis LUNs de almacenamiento?

VMware tiene dos mtodos bien diferenciados a la hora de configurar el tamao


correcto para las LUNs de almacenamiento. El mtodo predictivo o el mtodo
adaptivo.
El mtodo adaptivo utiliza menos LUNs pero LUNs ms grandes mientras que el
mtodo predictivo, utiliza varias LUNs con diferentes tipos de RAID para
adaptarse mejor a las caractersticas de E/S de las diferentes aplicaciones.
Una buena prctica a la hora de configurar las LUNs, es crear LUNs de unos
800GB de tamao y aadir entre 15-20 mquinas virtuales comprobando el
rendimiento.
Pero puede ser que cuando vas a aadir la mquina virtual nmero 5 se crea un
cuello de botella a nivel de LUN. Por eso es muy importante que antes de aadir
una nueva mquina virtual a una LUN, monitorices a nivel de E/S el delay de dicha
LUN. Si el rendimiento aun es ptimo, mete otra mquina virtual y vuelve a
monitorizar el rendimiento. Si el rendimiento sigue siendo bueno, sigue metiendo
ms mquinas virtuales.
Cuando detectes que el rendimiento no es bueno, y antes de que se genere un
cuello de botella en tu LUN, crea otro datastore y empieza a meter nuevas
mquinas virtuales en tu nueva LUN y vuelve a empezar con el proceso descrito.

Captulo 9. Monitorizacin de recursos en vSphere

VMware VMkernel trabaja proactivamente para evitar contencin en los recursos


fsicos del servidor ESX/ESXi. No obstante, para maximizar el rendimiento, es
necesario analizar y monitorizar constantemente nuestra infraestructura
vSphere.
El proceso de escrituras desde las mquinas virtuales al disco compartido

Cuando una mquina virtual quiere hacer una operacin de E/S al disco FC
compartido de la cabina de almacenamiento, el VMkernel ejecuta las siguientes
tareas:
1 - El archivo correspondiente a la mquina virtual es localizado en el DataStore
VMFS.
2 - La solicitud de los bloques en el disco virtual es asignada a los bloques en el
disco fsico apropiado.

3 -La solicitud modificada de E/S es enviada desde el driver del controlador de


disco duro de la mquina virtual a la tarjeta fsica HBA.
Es imprtate entender este proceso para poder monitorizar bien todos los
elementos o capas involucradas durante una operacin de escritura.
El uso de iniciadores hardware iSCSI descarga al VMkernel de dos tareas
principales:
1. La encapsulacin de PDU (Protocolo Data Unit ) iSCSI en paquetes TCP/IP
2. La encapsulacin de solicitudes I/O de disco en iSCSI PDU.
Cuando usas el software de multipathing con el iniciador software iSCSI, debes
conectar port binding - el iniciador software iSCSI con el VMkernel port va
comando (esxcli) o ahora tambin lo puedes hacer desde la GUI en la versin
ESXi.
Configurando el tamao correcto de la memoria en las MVs

El valor mximo recomendado de memoria que se muestra cuando se est


configurando una mquina virtual representa el umbral por encima del cual la
memoria fsica del host es insuficiente para ejecutar la mquina virtual con un
rendimiento ptimo.
El tamao de la particin swap de la mquina virtual (.vswp) ser igual al tamao
de la memoria fsica seleccionada cuando se configura la mquina virtual.
En nuestro caso, el tamao de nuestro fichero swap sera de 1GB, al asignarle
1GB de memoria RAM a la mquina virtual durante su creacin. Esta regla es

diferente cuando se asignan reservas a las mquinas virtuales. Por ejemplo, si


creas una mquina virtual con un 1GB de memoria RAM y creas una reserva de
350MB, el tamao del fichero swap ser de 1GB menos 350MB, es decir,
650MB.
VMware VMkernel detecta las pginas de memoria que son idnticas en todas las
mquinas virtuales y asigna estas pginas a la misma direccin de memoria fsica,
con el consiguiente ahorro potencial de memoria fsica. Esta tcnica es
denominada Transparent Memory Page Sharing (TMPS).
VMware VMkernel trata las pginas de memoria compartidas como pginas de
memoria COW (Copy on write), lo que significa que son pginas de solo lectura
cuando son compartidas y pginas privadas cuando una de las mquinas virtuales
hace algn cambio.
TMPS est siempre activada, a menos que se deshabilite manualmente
modificando el fichero de configuracin de la mquina virtual (.vmx).
Asimismo, Transparent Memory Page Sharing es la tcnica de conservacin de
memoria con un impacto menor que otras tcnicas, como pueden ser el
ballooning o swaping, por cuanto permite eliminar pginas de memoria
duplicadas ubicadas en diferentes mquinas virtuales.
No confundas TMPS con el Memory Balloon Driver, el cual permite reubicar
memoria no usada de una mquina virtual a otra. Las tcnicas de conservacin de
memoria con Transparent Memory Page Sharing y RAM Overcommit, permiten
asegurarse la eliminacin de copias de pginas de memoria redundadas entre
mquinas virtuales.
Una de las nuevas funcionalidades en la versin ESXi 5, en cuanto a la
optimizacin de memoria se refiere, es el llamado Memory Compression.

Esta tcnica es tambin transparente al sistema operativo guest y mucho ms


rpido, comparado con el proceso de paging a nivel de mquina virtual.
Con Memory Compression cada pgina de memoria considerada para ser
paginada a disco, es comprimida y almacenada en una cache de compresin a
nivel de mquina virtual. En el ejemplo del diagrama anterior, la pgina de
memoria A y B son comprimidas de 4K a 2K en la cache de la mquina virtual.
vSphere y la funcionalidad VMDirectPath I/O

En vSphere ESXi 5 es posible dedicar en exclusiva una tarjeta HBA, de red o


incluso un disco USB conectado directamente en el servidor ESXi a una mquina
virtual
Para configurar VMDirectPath debes seleccionar la pestaa de Configuration >
Advanced Settings
Un icono verde indica que el dispositivo est habilitado y activo. Un icono naranja
indica que el estado del dispositivo ha cambiado y el servidor host debe ser
reiniciado antes de que el dispositivo pueda ser utilizado por la mquina virtual.
Una vez asignado el hardware a la mquina virtual, este no podr ser gestionado
por el servidor ESXi. La versin anterior ESX/ESXi 4.1 ya soportaba dispositivos
USB en modo passthrought. Para ms informacin sobre la configuracin de USB
en modo passthrought revisa el KB1022290.
Puedes conectar hasta dos dispositivos passthrought a una mquina virtual y solo
pueden ser tarjetas de red o tarjetas HBAs de fibra para la conexin a la SAN.

Detectando cuellos de botella en el componente disco

Una mquina virtual puede tener un cuello de botella a nivel de E/S de disco si el
contador SCSI queue length es alto.
Puedes ver en uno de nuestros videos tutoriales de formacin gratuitos los dos
contadores importantes a monitorizar para ver si hay un cuello de botella a nivel
de disco. Tambin aprenders a ver como se monitorizan estos
contadores: http://www.josemariagonzalez.es/curso-online-gratuito
Una aplicacin en una mquina virtual puede experimentar un rendimiento
pobre, aunque la mquina virtual tenga memoria disponible, ya que puede no
tener memoria fsica disponible. El nmero mximo de vCPUs con el que puedes
configurar una mquina virtual es ahora de 32.
Para mejorar el rendimiento de una mquina virtual ejecuta los siguientes pasos:
1. Deshabilita dispositivos no usados como puertos COM, floppies o CD-ROM.
2. Optimiza la mquina virtual como si fuera una mquina fsica.
3. Pon mquinas virtuales con requerimientos similares en el mismo servidor
vSphere ESX/ESXi.

Detectando cuellos de botella en el componente vCPU

VMware recomienda mirar el indicador CPU Ready para determinar si la mquina


virtual tiene un cuello de botella en el componente CPU.
Si el contador de uso de la CPU est al 100% y el contador de CPU Ready est
entre un 5-10% durante un periodo largo de tiempo, es muy probable que la
mquina virtual tenga un cuello de botella a nivel de CPU. Un incremento en el
nmero de shares de CPU es muy posible que beneficie a una mquina virtual
que est saturada en cuando a CPU.
Puedes ver un video tutorial en nuestro curso online gratuito dedicado en
exclusiva a la virtualizacin de sistemas, sobre como monitorizar la capa de CPU
en tu entorno virtual para saber si hay un cuello de botella a nivel de
CPU: http://www.josemariagonzalez.es/curso-online-gratuito
Aviso: Para mejorar el rendimiento de la mquina virtual, o bien creas una
afinidad de CPU en la mquina virtual para que esta se ejecute solo en una CPU
fsica, lo cual no es una mejor practica porque entre otras cosas pierdes vMotion
o haces una reserva de la CPU fsica en exclusiva para la mquina virtual en
cuestin.

Monitorizando Thin Provisioning con alarmas

Haz clic con el botn derecho sobre la LUN que quieres monitorizar y selecciona
Add Alarm.
Crea una alarma para el DataStore que quieres monitorizar, selecciona el
contador "DataStore Disk Overallocation" y determina el porcentaje apropiado.
Despus, desde la pestaa de Actions, crea una accin que enve una notificacin
va email al administrador.
Aviso: Puedes convertir un disco de mquina virtual de thin a thick con la opcin
inflate con la mquina virtual apagada.
Asimismo, tambin puedes convertir un disco de thin a thick cuando haces una
migracin con Storage vMotion y seleccionas cambiar el tipo de disco a Thick.
El uso del New Task Wizard en vSphere

Con el nuevo New Task Wizard ahora es posible crear y programar las siguientes
tareas: Create a snapshot of a virtual machine, Enter a host in Maintanance Mode,
Create a virtual machine template, Migrate a virtual machine with vMotion, etc.
Para automatizar estas alarmas, selecciona Home, Management, Scheduled tasks y
haz clic en New.
Por defecto, vCenter crea 55 alarmas pre-definidas sobre el objeto inventario
raz. Estas alarmas son de solo lectura, excepto cuando editas las alarmas desde el
objeto inventario donde fueron definidas. En ese caso podrs modificar las
alarmas pre creadas.
Configurando vCenter Server para enviar notificaciones por email

Dentro del servidor de vCenter, selecciona Administration en la barra del men de


opciones y elige vCenter Server Settings. Despus selecciona la opcin Mail.
Escribe la direccin IP de tu servidor SMTP centralizado. Debes de configurar
tanto el servidor de SMTP como la direccin email desde donde se van a mandar
los correos. Asimismo, tu servidor vCenter tiene que tener instalado un agente
relay de SMTP para poder mandar las notificaciones va email.
Aviso: Para configurar las notificaciones SMTP, el cliente vSphere debe estar
conectado al servidor vCenter.

Captulo 10. Funcionalidades Enterprise en vSphere

En este mdulo te explicare los servidos Enterprise ms importantes de


VMware para todo aquel administrador que quiera dotar a su infraestructura
virtual de la proteccin necesaria contra la prdida de datos (Data Recovery),
protegerse contra la cada de los sistemas ESXi (VMware HA), y en definitiva
configurar el centro de datos flexible y dinmico del futuro (VMware DRS y
VMware DPM).
Cmo mover las mquinas virtuales de host con vMotion o de disco con
Storage vMotion?

Con vSphere no solo es posible migrar las mquinas virtuales de servidor


ESXi con la funcionalidad de vMotion, sino que tambin es posible mover sus
discos virtuales asociados de datastore.
Para migrar una mquina virtual, selecciona esta desde el inventario con el
botn derecho del rato y selecciona Migrate
La imagen anterior muestra el wizard de migraciones de mquinas virtuales.
Cuando selecciona la opcin Change host estas usando vMotion y cuando
selecciones Change datastore lo que estas usando es Storage vMotion.
Tambin es posible hacer un vMotion y un Storage vMotion a la vez pero la
mquina virtual tendr que estar apagada.

La idea de usar Storage vMotion es para mover mquinas virtuales entre


diferentes DataStores NFS, iSCSI y FC. Uno de los beneficios ms grandes de
Storage vMotion es el hecho de poder mover un disco virtual de una mquina
virtual de un DataStore a otro con menos latencia y comprobar el
rendimiento de la mquina virtual en el nuevo DataStore.
Tambin es posible migrar una mquina virtual con Storage vMotion con los
discos suspendidos. Storage VMotion no puede usarse en mquinas virtuales
con NPIV activado.
Los discos Raw Device Mapping en compatibilidad fsica estn soportados
por vMotion y VMware HA.
Asimismo, vMotion est soportado en una mquina virtual con la opcin
NPIV (N-Port ID Virtualization) habilitada, pero no cuando esta mquina
virtual tiene mltiples discos virtuales en diferentes DataStores. NPIV no
est soportado en mquina virtual con Fault Tolerance habilitado, otro de los
servicios Enterprise que cubriremos ms adelante en este libro.
Una migracin con vMotion no incurre en ningn downtime para la mquina
virtual. Recuerda que vMotion es requerido en un clster DRS/HA.
Es posible que los hosts ESXi involucrados en una migracin en caliente con
vMotion no sean compatibles. Cuando veas una cruz roja, desde la pestaa
Maps, en un servidor vSphere ESX/ESXi de un clster DRS/HA, significar
que este servidor no es compatible con VMotion.
En cuanto a los requerimientos de vMotion, una mquina virtual no puede
ser migrada cuando:
1. La MV tiene una conexin activa a un virtual switch de uso interno.

La MV tiene una conexin activa a un CD o disquete.

La MV tiene configurada afinidad a una CPU.

La MV forma parte de un clster Microsoft.

El wizard de vMotion produce un aviso cuando:

La MV tiene una conexin a un virtual switch de uso interno pero no


est conectado.

La MV tiene una conexin a un CD o disquete pero no est conectado.

La MV tiene uno o ms snapshots.

El servidor ESXi no ha recibido un guest OS heartbeat (probablemente


las VMware tools no han sido instaladas, configuradas
adecuadamente, o el servido de VMware tools est parado).

Recuerda que si recibes un mensaje de error, la mquina virtual no podr ser


migrada. Sin embargo, con un mensaje tipo warning, puede ser migrada con
vMotion sin problemas.

Por ltimo, recuerda que los servidores ESXi involucrados en la migracin


deben tener:

Visibilidad de todas las LUNs (FC, iSCSI o NAS) usadas por la MV.

Una red Gigabyte Ethernet dedicada al trfico vMotion.

Acceso a la misma red Ethernet fsica.

CPUs compatibles o similares (misma familia CPU). vMotion tambin


funciona si el servidor origen tiene Hyperthreading activado pero no
el servidor destino.

A diferencia de VMware ESX 3.x, el nombre de los switches virtuales


configurados para transferir el trfico generado por vMotion, no tiene por
qu ser configurados con el mismo nombre.
Aviso: El nmero mximo de migraciones simultaneas con Storage vMotion
en VMware vSphere ESXi es de 8 por datastore.
Asimismo, no podrs migrar una mquina virtual con Storage vMotion si esta
mquina virtual tiene snapshots activos y el disco virtual de dicha mquina
virtual ha sido configurado como independent non-presistent. Tambin es
posible usar la funcionalidad de Storage vMotion para asegurarte que una
vez hayas renombrado tus mquinas virtuales, este nombre tambin ser
actualizado a nivel de datastore.

El nmero mximo de migraciones concurrentes con Storage vMotion por


host es de 2.
vSphere Data Recovery

vSphere Data Recovery est incluido en la versin vSphere Essentials Plus.


Es una herramienta para hacer backups y restores a disco de tus mquinas
virtuales el cual se integra con vCenter Server. Es por lo que necesitas la
existencia de vCenter Server para poder usar e instalar este appliance de
VMware.
vSphere Data Recovery utiliza el API VSS(Microsoft Volume Shadow Copy
Services) para los backups en Windows Vista 32bit, Windows Server 2003
32bit y Windows Server 2008 32bit. Windows XP no est soportado en Data
Recovery.
vSphere Data Recovery tambin soporta servidores ESX 3.5.x. No obstante,
el backup de mquinas virtuales hospedadas en servidores ESX 3.5 suelen
tardar ms que en vSphere ESX 4.x. y ESXi 5. El motivo es que ESX 3.5 no
soporta la nueva funcionalidad en vSphere llamada changed-block tracking.
Para instalar vSphere Data Recovery has de bajarte el appliance desde la web
de VMware, instalarlo en un Servidor ESXi gestionado por vCenter e instalar
el plugin cliente en el vSphere Client.
El nmero de tareas mximo de backup o restore que Data Recovery soporta
es de 8 tareas simultneas.

vSphere Data Recovery soporta nuevas funcionalidades como backup a disco


y deduplicacin por consiguiente hay que asignar un disco al appliance de
Data Recovery para hacer los backups.
Este disco puede llegar a tener un tamao de hasta 1TB para discos de FC y
de 500GB para discos compartidos via CIFS. El motivo es que si usas
tamaos ms grandes, segn VMware, el rendimiento disminuye
considerablemente.
Opciones de Clustering para las mquinas virtuales

Es posible clasterizar las aplicaciones dentro de las mquinas virtuales con


software de clustering de terceros. El nico software de clustering para las
mquinas virtuales soportado en vSphere es el software de clustering de
Microsoft Windows.
Asimismo, existen tres opciones a la hora de clusterizar tus mquinas
virtuales con el software de clustering de Microsoft.
La primera opcin es clster in-a-box, el cual te permite protegerte contra
fallos de usuario, aplicacin y sistema operativo.
Aviso: Recuerda que el Bus Sharing para el disco SCSI 0 (c:) es = None y el
Bus Sharing para el disco SCSI 1 (quorum) es = Virtual. Los discos RDM solo
estn soportados en modo virtual.
La segunda opcin es clster entre hosts ESXi, el cual te protege contra fallos
de usuario, aplicaciones, sistemas operativos y hardware.
Aviso: Recuerda que en esta configuracin el Bus Sharing para el disco SCSI 0
es = None y el Bus Sharing para el disco SCSI 1 es = Fsico. Los discos RDM
estn soportados tanto en modo virtual o fsico.

La tercera opcin es clster entre mquina fsica ESXi y mquina virtual, la


cual te permite una solucin de redundancia N+1 de bajo coste. En esta
configuracin es posible que el failover del clster falle si usas el driver
STORport Miniport.
Aviso: Recuerda que en esta configuracin el Bus Sharing para el disco SCSI 0
es = None y el Bus Sharing para el disco SCSI 1 es = Fsico. En esta
configuracin, los discos RDM solo estn soportados en modo fsico.
Si usas Windows Server 2003 en un clster Microsoft MSCS asegrate que
la tarjeta virtual en las mquinas virtuales es de tipo "Flexible".
Si usas Windows Server 2008 en un clster Microsoft MSCS asegrate que
el adaptador virtual SCSI en las mquinas virtuales es un "LSI Logic SAS"
Cuando creas un clster Microsoft MSCS entre dos servidores ESXi 5, el
disco de la mquina virtual donde residir el disco quorum del clster, debe
ser un disco RDM en compatibilidad fsico o virtual.
Personalmente, no veo la necesidad de clusterizar las mquinas virtuales con
un software de terceros, en este caso de Microsoft, ya que los servicios de
alta disponibilidad en VMware, como HA y FT, nos ofrecen un RTO - de las
siglas en ingles Recovery Time Objective muy bueno y con una
configuracin mucho ms simple y flexible.
No obstante, si tu aplicacin requiere un RTO de menos de 5 minutos y
requiere una configuracin de ms de una vCPU, no tendrs otra alternativa
que clusterizar estas mquinas virtuales con el software de clustering de
Microsoft para ofreces ese RTO.
VMware Fault Tolerance (FT)

VMware FT es otro de los servicios Enterprise en VMware. A diferencia de


VMware HA, donde la mquina virtual tiene un downtime mnimo, una
mquina virtual protegida con FT tiene un downtime de cero (menos 14
milisegundos en una red de 1Gb).
Solo hardware de ltima generacin soporta la funcionalidad Fault
Tolerance en VMware. Asegrate de verificar con tu proveedor de hardware
que este tiene soporte para FT.
VMware Fault Tolerance usa la tecnologa de VMware vLockstep y no
soporta discos thin en las mquinas virtuales.
Cuando activas Fault Tolerance en una mquina virtual, esta no puede tener
ms de una CPU virtual (VMware SMP).
VMware Fault Tolerant y las polticas de no-afinidad y afinidad del clster
DRS

Gracias a las polticas de no-afinidad en un clster DRS, una o ms mquinas


virtuales nunca podrn estar localizadas en un mismo servidor ESXi. Tambin
es posible crear polticas de afinidad, es decir, que una o ms mquinas
virtuales siempre residan en un mismo servidor ESXi.
Un ejemplo tpico de una polica de no-afinidad sera el caso de dos
controladores de domino. Como veremos ms adelante, cuando activamos
VMware DRS, este migrara automticamente las mquinas virtuales de host
ESXi para balancear la carga. Yo le llamo el vMotion con celebro. Pero NO
queremos tener una situacin en donde los dos controladores de dominio se
migran automticamente a un servidor ESXi y que esta falla.

Si claro, VMware HA levantara las dos mquinas virtuales automticamente si lo tienes configurado - pero estars unos minutos sin ningn controlador
de dominio, y no querrs que esto pase, verdad?
Aviso: No obstante, dada una mquina virtual en modo VMware Fault
Tolerant, puede suceder que tanto la copia primaria como la copia secundaria
residan en el mismo host ESX/ESXi.
Este caso solo puede darse cuando la mquina virtual en modo Fault Tolerant
est apagada. Para poder activar FT es necesario previamente tener HA
configurado.
Fault Tolerance y el panel Summary

Desde el panel Summary, puedes ver el estado de la funcionalidad Fault


Tolerance, active o Not Protected.
Para verificar si una mquina virtual est protegida con Fault Tolerance,
selecciona la mquina virtual y la pestaa Summary.
Si la mquina virtual reporta el estado "Not Protected" es un indicativo de
que la funcionalidad de Fault Tolerance est deshabilitada o que la copia
primaria est funcionando sin una copia secundaria, con lo que estaras en un
escenario de mquina virtual no protegida.
Cuando a la mquina virtual con la opcin FT (Fault Tolerance) habilitada y
dentro de un clster DRS/HA, se le habilita la opcin Host Monitoring y la
primera copia de la mquina falla, una segunda copia (mirror) de dicha
mquina virtual no ser creada. Por lo tanto, dicha mquina virtual no tendr
una configuracin redundante.
Una de las formas ms sencillas de probar si FT est funcionando en tu
entorno es hacer que falle la mquina virtual primaria para ver si la
secundaria toma el testigo.

El nmero mximo de discos virtuales que una mquina virtual puede tener
cuando se protege con Fault Tolerance es de 16 virtual disk.
Asimismo, no es posible proteger ms de 4 mquinas virtuales con FT por
servidor ESXi.
Otra de las limitaciones en VMware FT es el hecho de que no podrs asignar
ms de 64GB de memoria RAM a una mquina virtual protegida con FT.
VMware High Availability Services (HA)

El servicio de VMware HA en vSphere ESXi 5 ha sido completamente


rediseado. Ahora, los nodos en el clster o son Master o Slave, a diferencia
de versiones anteriores donde haba nodos primarios y secundarios.
VMware HA puede reiniciar automticamente las mquinas virtuales de un
servidor ESX/ESXi que haya fallado debido a un problema de hardware del
servidor.
No obstante, es posible que una mquina virtual no se reinicie en otro
servidor ESX/ESXi del clster HA en el caso de que haya sido configurada con
una prioridad baja (low priority) o que el admission control haya sido
configurado.
Recuerda que debe haber suficientes recursos en el clster HA, basados en la
reserva de CPU y memoria, para poder reiniciar las mquinas virtuales.
Si al arrancar una mquina virtual en clster VMware HA recibes el error
"insufficient resources exist for HA", no tienes suficientes recursos fsicos
para arrancar ms mquinas virtuales. Para poder resolver este problema,
puedes cambiar la configuracin de VMware HA y seleccionar la opcin
"Allow virtual machines to be powered on even if they violate HA availability
constraints" o aadir otro servidor ESX/ESXi al clster. Desactivar el control
de admisin en VMware HA no es una mejor prctica.

Un clster VMware HA puede llegar a tener la mxima configuracin


siguiente:

El nmero mximo de servidores ESXi permitidos por un clster


VMware HA es de 32 nodos.

El nmero mximo de mquinas virtuales por host que puedes


proteger con HA es de 512, con independencia del nmero de host
que tengas configurados en el clster HA.

El nmero mximo de mquinas virtuales por clster que puedes


proteger con HA es de 3.000

Activando vSphere VMware HA/DRS

Antes de configurar VMware HA, verifica que todas las mquinas virtuales
pueden ejecutarse en los nodos que vayan a formar el clster. Recuerda que
el acceso a recursos comunes como LUNs y redes virtuales es vital para que
VMware HA funcione correctamente.
Para crear un clster con la opcin de HA, selecciona el objeto de inventario
datacenter con el botn derecho del ratn y selecciona create new clster. En
la imagen anterior se muestra el wizard de creacin de un clster. Para activa
la parte de HA del clster solo tienes que marcar la opcin Turn on VMware
HA. Es una muy buena prctica tener HA y DRS activados juntos. DRS se
activa de la misma forma que activamos VMware HA.
VMware HA solo reiniciar las mquinas virtuales en otro servidor vSphere
ESXi cuando uno de los servidores del clster se asla de la red o un host falla.
Recuerda que para que VMware HA funcione perfectamente, todos los
servidores vSphere ESX/ESXi en el clster deben tener acceso a los
DataStores compartidos por todos los servidores ESX/ESXi.
Asegrate que tu servidor DNS funciona perfectamente y que puedes hacer
ping por nombre corto, FQDN, alias y direccin IP desde todos los servidores
ESX/ESXi y desde el vCenter, as como al default gateway.
VMware HA instala un agente en cada servidor ESXi el cual monitoriza el
host ESXi as como las VMware tools en todas y cada una de las mquinas
virtuales registradas. Asimismo, y opcionalmente, este agente tambin puede
ser configurado para monitorizar los heartbeats de las aplicaciones que estn
corriendo en las mquinas virtuales.
Cuando un servidor vSphere ESXi es puesto en modo mantenimiento en un
clster HA/DRS, las mquinas virtuales se migrarn automticamente a otros
servidores vSphere ESXi, siempre que el clster est configurado en fully
automated. Si el clster est configurado en partially automated, el
administrador de vCenter deber mover las mquinas virtuales
manualmente. Recuerda los tres niveles de automatizacin para un clster
DRS: Manual, Partially Automated y Fully automated.

Los niveles de automatizacin en VMware DRS se definen en base a dos


valores: dnde se va a arrancar la mquina virtual cuando est apagada, y
dnde se va a mover (vMotion) la mquina virtual cuando est encendida
(balanceo dinmico o DRS).
En un clster DRS, con la configuracin fully automated, si deseas que una
mquina virtual no se migre a otro servidor vSphere ESX/ESXi, has de
cambiar las opciones de la mquina virtual a Partially Automated.
La diferencia entre partially automated y fully automated en un clster DRS es
que un clster con la opcin fully automated migra las mquinas virtuales para
optimizar el uso de los recursos.
En la seccin, Virtual Machine Options, puedes cambiar el nivel de
automatizacin por mquina virtual.
La diferencia entre default (Partially Automated) y Disable, es que con
Disabled el clster DRS no genera ninguna recomendacin para esa mquina
virtual en particular. Por consiguiente, esta mquina virtual nunca sera
migrada automticamente con VMware DRS (vMotion).
Aviso: En una configuracin DRS con solo dos servidores ESXi, es posible que
un servidor ESXi est usando el 100% de los recursos (memoria y CPU)
mientras que el otro servidor est mucho ms libre. Este es un caso tpico de
que no existen recursos suficientes para ejecutar una migracin en caliente
con vMotion o que las CPUs de los host en el clster son incompatibles con
vMotion.

Cambiando el orden de prioridad en el arranque de mis mquinas virtuales en


VMware HA

Edita los Settings de VMware HA y selecciona Virtual Machine Options. En mi


ejemplo, para la mquina virtual llamada DC1, he cambiado VM Restart
Priority a High. Esto significa que la mquina virtual DC1 arrancar antes que
la mquina Windows (VM Restart Priority Medium).
Aviso: Recuerda que los settings a nivel de mquina virtual sobrescriben los
settings definidos a nivel de clster.
Cuando estableces VM Restart Priority a Disabled, como en la mquina virtual
llamada W2k mi ejemplo, le ests indicando al clster VMware HA que, en
caso de fallo hardware en uno de los nodos, no reinicie dicha mquina virtual.
Recuerda las 4 opciones disponibles en la opcin VM Restart Priority en
VMware HA: Disabled, low, Medium y High

Configurando la parte de red en VMware HA

Es recomendable tener dos tarjetas de red para el control del latido del
clster (heartbeat). Asimismo, los uplinks vmnic0 y vmnic1 en mi ejemplo,
deberan estar conectados a switches fsicos diferentes para estar protegidos
tambin contra fallos en la capa de red fsica.

La forma en la que vSphere VMware HA calcula el "failover capacity", cuando


se activa HA con la primera poltica de control de admisin (host failures
clster tolerates), es usando el valor ms alto de las reservas de memoria y
CPU de las mquinas virtuales de un clster. Recuerda que debe haber

recursos suficientes en el clster (memoria y CPU) para poder acometer un


failover.
Un clster VMware DRS/HA mostrar un estado rojo si el nmero del
contador "failover capacity" es menor que el nmero "configured capacity".

Aviso: Recuerda que el valor por defecto de Isolation Response es de leave


power on, es decir, en caso de aislamiento de uno de los nodos del clster
(perdida del heartbeat), las mquinas virtuales se dejaran encendidas.
Restart Priority e Isolation Response son configuraciones a nivel de clster. Esta
configuracin puede ser modificada tambin a nivel de mquina virtual.

Si una mquina virtual en un clster DRS est teniendo problemas de


rendimiento, debers incrementar los shares de CPU de dicha MV a High o
incrementar sus reservas de CPU.
Distributed Power Management (DPM)

Distributed Power Management es otro de los servicios Enterprise que se


puede activar cuando creamos un clster HA/DRS.
La idea de DPM es tener el centro de datos del futuro en el cual los
servidores ESXi se apagan cuando no se necesitan y se enciende cuando se
les necesitan.
Puedes ver un video tutorial de DPM en accin en nuestro blog de
virtualizacin y cloud computing en espaol en la siguiente direccin web:
http://www.josemariagonzalez.es
DPM usa Wake-on-LAN (WOL), IPMI (Intelligent Platform Management
Interface) o las tarjetas de gestin remota iLO de HP para poner el host
ESX/ESXi en modo standby y volver a encenderlo cuando el clster DRS lo
necesite.
DPM est deshabilitado por defecto cuando se crea un clster DRS.Si lo
activas, asegrate de que las tarjetas de red dedicadas a vMotion soporten
WOL pues es por esta red por donde se envan los paquetes mgicos de
para poner un host en modo standby o para sacarlo de ese modo cuando sea
necesario.
Quizs DPM tenga ms sentido en entornos grandes pues es donde ms
dinero en energa y refrigeracin puedes ahorrar.

No obstante, en clientes pequeos (4 servidores ESXi) donde hemos


configurado DPM, estamos ahorrando alrededor u unos 1.200 euros al ao,
lo suficiente para comprarte otra licencia de VMware Essentiasl!
Verificando la configuracin del host con Host Profiles

La opcin de Host Profiles es otra de las funcionalidades Enterprise que todo


centro de datos virtualizado de cierta envergadura debera tener
configurado por la cantidad de trabajo que este puede ahorrar al
administrador.
Bsicamente con host profile podemos capturar la configuracin de un host
ESXi 5 especfico y duplicar dicha configuracin a otro host o clster con el
consiguiente ahorro en la fase de post-configuracin de todos tus servidores
ESXi.
La funcionalidad de host profile tambin te permite comprobar que la
configuracin de los host ESXi 5, en tu centro de datos, siguen las mejores
prcticas y estn configuradas acorde con el baseline del administrador.
Host Profiles es el mtodo recomendado por VMware para configurar
servidores ESXi cuando han sido instalados con VMware Auto Deploy.
Para poder aplicar una configuracin con host profile a un servidor ESXi este
tiene que ser puesto primero en modo mantenimiento (maintenance mode)
Cuando un servidor ESXi 5 es puesto en modo maintenance mode, ninguna
mquina virtual puede ser encendida en ese servidor o migrada al mismo con
DRS o manualmente con vMotion.

Aviso: La ejecucin de Host profile puede fallar cuando el host no ha sido


puesto en modo mantenimiento o es un servidor ESX 3.x ya que la
funcionalidad de host profile solo est disponible a partir de las versiones
ESX/ESXi 3.5
VMware vCenter Site Recovery Manager

Vmware vCenter Site Recovey Manager (SRM) te permite configurar un plan


de contingencias para que, en el caso que el centro de datos primario (Site A)
fallase, puedas levantar los servicios en un emplazamiento remoto (Site B).
VMware vCenter Site Recovery Manager requiere tener licencias vlidas
para los servidores VMware ESX/ESXi y una licencia en cada site para
VMware vCenter Server.
La idea de SRM es protegerte contra cadas de sites mediante la creacin de
planes de contingencias ante fallos completos del centro de datos. El rea de
BC/DR - de las siglas en ingles Business Continuity/Desaster Recovery - es
bastante amplio como para cubrirlo en este libro. Es por lo que la
configuracin, instalacin y gestin de SRM la tenemos documentada en otro
libro totalmente separado.
Puedes recibir una copia gratuitamente de la versin ebook del libro:
Administrado Site Recovery Manager 4.0 en espaol al registrarte en
nuestro blog de virtualizacin y cloud computing en espaol en la siguiente
direccin: http://www.josemariagonzalez.es/2009/10/19/vmware-siterecovery-manager-10-en-espanol-capitulo-10-la-recuperacin-del-sitesin-vmware-srm.html

VMware Update Manager (VUM)

Con vCenter Update Manager, en combinacin con VMware DRS, es posible


actualizar el hardware virtual de las mquinas virtuales, las VMware tools,
parchear las appliances y actualizar los servidores ESXi de una forma
automatizada (VMware Orchestator), flexible y sin ningn downtime.
VUM visto desde el servidor de vCenter

Para instalar VUM, debes de instalar la parte servidor en el mismo servidor


donde tienes ya instalado vCenter Server (para entornos pequeos) o en
otro servidor independiente al vCenter (entornos grandes). El binario est en
el mismo DVD que el vCenter Server.

Una vez que lo hayas instalados, podrs actualizar los siguientes objetos:
ESXi, Virtual Appliances, VMware Tools y hardware virtual.

En vSphere 5 ya no es posible actualizar mquinas virtuales pues VMware ha


decidido retirar esta posibilidad. Posiblemente, el motivo haya sido el poco
uso de los clientes.
Los niveles de severidad vlidos en vCenter Update Manager para los
servidores hosts ESXi son: Critical, Security y General.
vCenter Update Manager incluye las siguientes baselines para las mquinas
virtuales : VMware Tools Upgrade to Match Host, VM hardware Upgrade to
Match Host y VA Upgrade to Laster. Y para los servidores ESXi son: Critical
Host Patches y Non-Critical Host Patches

Recuerda que no importa el nmero de servidores vSphere ESXi que tengas


en un clster, solo podrs actualizar uno cada vez con vCenter Update
Manager.
Aviso: El nmero mximo de mquinas virtuales que VMware Update
Manager (VUM) puede escanear por instancia de vCenter Server es de
10.000.
Asimismo, el nmero mximo de VMware Tools que puedes actualizar por
servidor VUM es de 75 as como virtual machine hardware scans por
servidor de VUM.
Algo imprtate a destacar, es quizs el hecho de que no es posible actualizar
las VMware tools por servidor ESXi, sin usar el servidor VUM, de ms de 24
mquinas virtuales a la vez.
Recuerda que no podrs actualizar con VUM el hardware virtual de tus
mquinas virtuales en servidores legacy, es decir, de servidores hosts que no
sean ESXi 5.
Por ltimo, los puertos que VMware Update Manager usa son: 8084, 9084,
9087.
VMware vSphere Storage DRS

Probablemente una de las nuevas funcionalidades de la nueva versin


vSphere 5 que ms inters ha despertado en los usuarios, administradores
y pblico en general es VMware Storage DRS.

Si ya conoces el concepto y la funcionalidad de Storage vMotion, entender


esta nueva caracterstica te resultara muy sencillo.
Bsicamente, Storage DRS te permite automticamente seleccionar la LUN
ms adecuada para el funcionamiento de tus mquinas virtuales. Este
avanzado mecanismo de balanceo a nivel de LUNs, tambin permite evitar
cuellos de botella y problemas derivados por la falta de espacio en disco.
Antes, y sin Storage DRS, manualmente tenas que seleccionar el datastore
que pensabas tena una latencia menor para albergar tus mquinas virtuales.
Asimismo, tenas que, manualmente, seleccionar el datasotre correcto para
que tus mquinas virtuales no tuvieran ningn tipo de conflicto en cuando al
almacenamiento se refiere.
Ahora, y con Storage DRS, automticamente el sistema arrancara tus
mquinas virtuales en aquellas LUNs con ms espacio y menos latencia en
cuanto a E/S.

Antes de activar SDRS (Storage DRS) has de crear un grupo de datastores


llamado datastore clster. Un datasotre clster con SDRS activado
balancear los discos de tus mquinas virtuales (.vmdk) de la misma forma
que un clster DRS balancea las mquinas virtuales con vMotion.
Para crear un datastore clster, selecciona el objeto de inventario de tu
vCenter con el botn derecho del ratn y selecciona New DataStore Cluster.
Puedes configurar, como en VMware DRS, tu datastore clster en modo
manual o completamente automtico. Quizs lo ms importante a la hora de
configurar tu datastore clster es seleccionar unos buenos Thresholds de
configuracin de E/S en tus LUNs. Esta configuracin de los thresholds
permitir a SDRS hacer las recomendaciones necesarias de migraciones.
En mi ejemplo, me he creado un datastore clster con una latencia de I/O
mnima de 15 milisegundos. Si mis mquinas virtuales sufrieran una latencia
de E/S superior a los 15 milisegundos, SDRS migrara la mquina virtual con
Storage vMotion a otro datasotre del clster que ofrezca el mnimo de
latencia configurado.
De esta forma podrs crear SLAs - de las siglas en ingls Service Level
Agreetment - para todas y cada una de tus mquinas virtuales de una forma
rpida, sencilla y automatizada. Sin lugar a dudas, Storage Distribute

Resource Scheduler es una de las funcionalidades del centro de datos del


futuro el cual es virtual, flexible, dinmico y plug & play.

Gracias y Cierre

Me gustara darte las gracias personalmente por haber visitado nuestro blog
virtualizacin & Cloud Computing y haberte suscrito a este eBook sobre
virtualizacin con VMware vSphere.
Me gustara poder obsequiarte con un descuento del 31% en mi curso bsico
online lder de ventas en Udemy:
Virtualizacin con VMware aplicada al mundo empresarial.
Ademas, si te gustan las emociones fuertes y ya tienes un "elevado" nivel de
administracin de VMware vSphere, me gustara obsequiarte mi curso
online avanzado VMware vSphere con un 33% de descuento!
En los enlaces que te adjunto arriba en este correo tendrs toda la
informacin de ambos cursos online VMware, as como el cdigo de
descuento ya aplicado.
Muchas gracias y nos vemos online!. Y recuerda, estamos disponibles para
cualquier duda, pregunta o sugerencia que tengas en este correo electrnico:
info@josemariagonzalez.es
Jose Maria Gonzalez
CEO & Founder
www.jmgvirtualconsulting.com

Virtualizacin con
VMware vSphere

eBook
por
Jos Mara Gonzlez

Jos Mara Gonzlez


info@jmgvirtualconsulting.com
http://www.jmgvirtualconsulting.com
@jmgconsulting

También podría gustarte