Documentos de Académico
Documentos de Profesional
Documentos de Cultura
VMware vSphere
eBook
por
Jos Mara Gonzlez
4. Si no eres VCP pero has asistido a uno de los cursos requeridos para la
certificacin oficial VCP4 (VMware Install, Configure and Manage):
Si usas la nueva funcionalidad llamada VMware Auto Deploy, recuerda que los
logs de tu servidor ESXi sern almacenados en memoria con lo que al
reinicializar tu servidor perders estos logs por defecto. Para definir profiles
de imgenes para tus servidores ESXi con Auto Deploy tendrs que usar
cmdlet incluidos en el vSphere Power CLI image builder.
Es posible tambin actualizar servidores ESXi con la utilidad Enterprise
llamada VMware Update Manager (VUM), de la que hablaremos tambin en
este libro.
Una mejora practica antes de actualizar un servidor ESXi, es guardar la
configuracin del servidor que vas actualizar con el siguiente comando de
vCLI: vicfg-cfgbackup s
Aviso: Con VMware vSphere ESXi 5, el nmero total de caminos de FC
(Fiber Channel) por servidor se han aumentado hasta los 1.204. En VMware
vSphere ESXi 5 el mximo nmero de servidores conectados a volmenes
VMFS es de 64 hosts por volumen VMFS.
Asimismo, el nmero mximo de datastores conectados a un Cluster
HA/DRS es de 32.
Tampoco es posible actualizar varios servidores ESXi en un clster
simultneamente, es decir, solo est permitido actualizar un servidor ESXi a
la vez dentro de tu clster.
Datos importantes sobre el nuevo installer en vSphere
Sin embargo, el nmero mximo de caminos iSCSI que un servidor ESXi pues
ver es de 1.024.
Una instalacin inicial de vSphere ESXi usa el formato GPT - de las siglas en
ingls GUID Particion Table en lugar del formato MBR - de las siglas en ingles
Master Boot Record - lo cual permite instalar ESXi en discos con un tamao
superior a 2TB. No obstante, si actualizas de versin VMware ESX/ESXi 4.x a
ESXi 5 no se usara el formato GPT, sino que se mantendr el formato MBR.
Aspectos importantes sobre la configuracin y la seguridad de vSphere ESXi
Ten en cuenta el tamao requerido para almacenar estos logs, sobre todo si
cambias el nivel de lo que quieres que se logee en tu sistemas. Para ponrtelo
en contexto, los logs pueden llegar a crecer hasta 9GB en una instalacin de
10 ESXi y aproximadamente 100 mquinas virtuales con respecto al nivel
estndar de logeo.
Tambin, y si no tienes configurado un servidor de vCenter, puedes
conectarte directamente a tu host ESXi y exportar los logs seleccionado la
opcin, File > Export.
2. Comunicar con nuestro servidor ESXi via SSH (puerto 22) o vSphere Client,
para lo que utilizamos un Management Network Port.
3. Comunicar con el VMkernel y puertos IP de tipo VMotion, NFS e iSCSI, para lo
que utilizamos un VMkernel Port.
A diferencia de los switches fsicos, no es posible conectar dos virtual switch juntos
mediante un ISL (InterSwitch Link Protocol), ni puedes mapear la misma tarjeta de
red a ms de un virtual switch a la vez. Recuerda que s es posible configurar un
virtual switch sin ninguna tarjeta de red, lo que es denominado como internal
switch only.
Cuando creas un NIC teaming (una o ms tarjetas de red mapeadas a un virtual
switch para incrementar el ancho de banda o dotar de alta disponibilidad a la capa
de red), todas las tarjetas de red dentro del teaming pasan a ser activas por defecto.
Para crear virtual switches puedes usar el vSphere Client o, desde la consola del
servidor ESXi, puedes usar el comando: esxcfg-vswitch -a "nombre vswitch".
Si hay dos mquinas virtuales conectadas a dos virtual switches diferentes, el
trfico entre dichas mquinas fluir a travs de las tarjetas fsicas mapeadas a los
switches virtuales y entre servidores ESXi. Por el contrario, si varias mquinas
virtuales estn conectadas al mismo VSS del mismo servidor ESXi, los paquetes no
salen por la red, sino que son transmitidos internamente en el servidor ESXi por el
VMkernel.
Para mejorar el rendimiento de red de las mquinas virtuales es posible mapear
ms de una tarjeta fsica (uplink) al VSS.
Aviso: Tambin es posible configurar switches distribuidos virtuales (Virtual
Distributed Switch). La configuracin de los switches distribuidos (VDS) es
almacenada en el servidor vCenter a diferencia de los switches estndar, los cuales
almacenan la configuracin en los servidores ESXi. Un Virtual Distributed Switch
no es ms que un VSS que es compartido entre mltiples servidores VMware
vSphere ESXi. Los VDS solo estn incluidos en la versin Enterprise Plus.
Port groups y el virtual switch estndar
En vSphere ESXi, una tarjeta mapeada a un switch virtual puede ser configurada
para trasmitir y recibir tramas Jumbo Frame. El MTU (Maximum Transmision
Unit) de un Jumbo Frame es de 9000. VMware ESXi tambin soporta Jumbo
Frames, tanto en los VSS como en los VDS.
Ahora, tambin es posible activar desde la GUI de los VSS el uso de los mismos. La
configuracin de Jumbo Frames es considerada una mejor prctica para las redes
de tipo iSCSI, vMotion y Fault Tolerance.
Aviso: Los tres tipos de virtual switch pueden soportar hasta un total de 4088
puertos por switch virtual estndar.
Para los tres tipos de virtual switch, no existen colisiones de red en el trfico
interno. Asimismo la direccin MAC de los adaptadores de red conectados a los
virtual switches no ser usada en ningn momento de forma interna.
Las polticas de balanceo de carga en un VSS en vSphere
Sin embargo, las polticas de balanceo de carga para un NIC teaming en un VDS
incluye otra poltica adicional llamada Route Based on physical NIC load como
veremos ms adelante.
Para ver las propiedades de tus tarjetas de red, selecciona el servidor ESXi en el
panel inventario, luego en la pestaa Configuration, selecciona el enlace Networking
En los VSS, hay tres tipos diferentes de polticas de seguridad: Traffic shaping
Policy, NIC Teaming Policy y Security Policy. En un Virtual Distributed Switch,
aparte de estas tres polticas de seguridad, existe otra nueva, Port Blocking Policy.
Las polticas pueden ser definidas a nivel de virtual switch, las cuales se convertiran
tambin en las polticas por defecto para todos los port groups creados en dicho
virtual switch, o a nivel de port group.
Las polticas definidas a nivel de port group, siempre sobrescriben las polticas
definidas a nivel de virtual switch. Un vSwitch o vSwitch port group en "Promiscuous
Mode" permitir que una mquina virtual pueda "escuchar" todo el trfico
contenido en ese VSS y no solo el trfico destinado para esta mquina virtual en
concreto.
Una mejor practica en la capa de red con vSphere es que antes de crear los
diferentes tipos de switches virtuales, protocolos de balanceo de carga, VLANs,
port groups y NIC teaming, hables con el administrador de tu red fsica sobre lo
que necesitas a nivel de red virtual.
Es muy corriente implementar IP hash a nivel de red virtual en entonos de
produccin relativamente importantes para luego darse cuenta que no est
funcionando correctamente porque no se ha activado en el switch fsico.
La configuracin predeterminada en vSphere, dentro de la poltica de seguridad
Security
virtual. Por defecto, esta opcin se suele cambiar a Reject para evitar ataques tipo
MAC flooding y MAC spoofing.
En resumen, Forged Transmit permite a una mquina virtual transmitir paquetes
(outbound) que contienen una direccin MAC diferente a la que se ha definido en
esa mquina virtual.
Recuerda que las polticas de seguridad de red a nivel de VSS y port group son
Reject (Promiscuous Mode), Accept (MAC address Changes) y Accept (Forget
Transmit).
Aviso: No cambies la configuracin por defecto de MAC Address Changes ni Forged
Transmits si tienes configurado en el virtual switch un clster Microsoft NLB
(Network Load Balancing) en modo unicast.
Para ver ms informacin sobre la configuracin determinada con Microsoft NLB,
ver el KB nmero 1556 en la pgina de VMware: http://kb.vmware.com
Asimismo, cuando tengas que hacer una conversin P2V - de las siglas en ingls
Physical to Virtual - con el software de conversiones de VMware llamado
vConverter, asegrate de configurar Allow Mac Adress Changes en Accept, si el
servidor fsico que estas intentando convertir tiene software instalado que fue
licenciado usando la direccin MAC de su tarjeta fsica.
La configuracin predeterminada, dentro de la poltica de seguridad de Traffic
Shaping
Esta poltica de seguridad de traffic shaping, para el vswitch y port group, est
desactivada por defecto. Con la opcin network traffic shaping puedes limitar el
outbound peak bandwidth y el outbound average bandwidth.
Esta poltica de traffic shaping solo se aplica a las conexiones de dentro hacia fuera
(outbound), es decir, desde dentro del virtual switch hacia fuera del virtual switch.
No es posible definir una poltica de traffic shaping desde fuera del virtual switch
hacia dentro (inbound) en un VSS.
Una primera alternativa para limitar el trfico de tipo inbound es la de usar algn
sistema externo de balanceo de carga o activar la opcin de rate-limiting en tu
router fsico.
La segunda alternativa la encontramos en los VDS. En los Virtual Distributed
Switches es posible definir el Traffic Shaping en ambas direcciones (Ingress inbound y Egress - outbound).
En vSphere hay dos formas de migrar una mquina virtual desde un vSwitch
estndar a un Virtual Distributed Switch.
La primera opcin es seleccionando un dvPort group desde las propiedades de la
configuracin de red de la mquina virtual, y la segunda, seleccionando la mquina
virtual desde la lista de mquinas virtuales cuando usas la opcin "Migrate Virtual
Machine Networking".
Para terminar con las diferencias entre un VSS y un VDS, estas son las tres
funcionalidades ms importantes que estn disponibles en los VDS y no en VSS:
NetFlow Monitoring
Recuerda que si usas un uplink que ya est previamente en uso en un VSS para
crear un VDS, las mquinas virtuales que estuvieran usando ese uplink perdern la
conectividad.
Aviso: Ten en cuenta que el Average Bandwidth y Peak Bandwidth son medidos en
Kbps, mientras que el Burst Size es medido en KB.
De la misma manera se mide en los Virtual Distributed Switch. Asimismo, recuerda
que el mximo nmero de VDS por servidor de vCenter es de 32.
Arquitectura de un Virtual Distributed Switch
2. El port group tambin puede ser migrado desde un virtual switch estndar a un
VDS y viceversa.
3. Un adaptador de red con la configuracin de un port group puede ser creado
durante la instalacin de un Virtual Distributed Switch.
Una mejor practica de VMware es la de usar VDS en lugar de VSS ya que los
swithes distribuidos ofrecen algunas funcionalidades Enterprise que no estn
incluidas en los VSS.
Naturalmente tendrs que evaluar el coste adicional asociado al uso de los VDS ya
que solo es posible configurar VDS si tienes la licencia Enterprise plus.
La configuracin predeterminada en vSphere, dentro de la poltica de seguridad de
NIC Teaming.
stos son algunos de los mximos y mnimos en la capa de red para VMware
vSphere ESXi 5:
256 es el nmero mximo de port groups por switch virtual estndar (VSS de
las siglas en ingles virtual switch standard).
El almacenamiento es, sin duda, uno de los pilares ms importantes de una solucin
de virtualizacin. Es un componente crtico para poder dotar a nuestro entorno de
un plan de contingencia a fallos, alta disponibilidad y migracin de mquinas
virtuales entre servidores VMware vSphereESXi.
Zoning, LUN Masking y el uso de VAAI en vSphere
BFS puede llegar a ser til para configuraciones diskless en servidores tipo Blade.
Cuando ests haciendo BFS, la LUN FC desde donde arranque el servidor ESXi,
deber ser solo visible para ese servidor. Los otros DataStores VMFS, deberan ser
visibles a todos los servidores ESXi.
Asegrate siempre de que cambies tu configuracin de la zona del fabric de FC o
las propiedades de las LUNs, hacer un rescan de tu fabric a nivel de centro de
datos. De esta forma te aseguras que todos los servidores tienen la ltima
configuracin de tu SAN.
Con el vSphere Client y desde la pestaa Storage Views podrs ver informacin
muy interesante relativa a tus datastores VMFS, como por ejemplo:
Para obtener ms informacin sobre los DataStores VMFS, como, por ejemplo, el
estado del Multipathing actual y el espacio usado, selecciona la pestaa Storage
Views.
El Runtime Name, para un dispositivo de almacenamiento en FC, equivale al
nombre de la ruta del dispositivo en formato vmhba:C:T:L, donde C es Controler, T
es Target y L es LUN.
El seudo name vmhba32 es el nombre que el VMkernel utiliza para los iniciadores
software iSCSI. Recuerda que tanto el adaptador de software iSCSI como el
adaptador dependent hardware iSCSI necesitan un port group tipo VMkernel para
ser configurados del todo.
Si usas una adaptador de tipo dependent hardware iSCSI para tu conexin iSCSI, es
posible que el rendimiento de las tarjetas de red asociadas con este adaptador
muestren muy poca actividad, incluso cuando el trafico via iSCSI es muy alto. Esto
es consecuencia directa de que el trafico iSCSI hace un bypass del trafico normal
de red y no se ver reportado por las herramientas internas de monitorizacin de
red del servidor ESXi (esxtop).
Asimismo, para obtener un mejor rendimiento iSCSI con adaptadores de tipo
dependent hardware iSCSI es una mejor prctica habilitar la opcin de flow control.
Flow control est habilitado por defecto en todas las tarjetas de red en los
servidores ESXi 5. Es posible deshabilitar flow control. Puedes ver el KB 1013413
en el siguiente enlace para deshabilitarlo: http://kb.vmware.com/kb/1013413
Una SAN de tipo iSCSI consiste de una cabina de datos con conexiones tipo iSCSI
(red de 1Gb o 10Gb Ethernet) la cual contiene una o ms LUNs as como SPs. La
comunicacin entre el host ESXi y la cabina iSCSI se establece a travs de una red
Ethernet de datos.
iSCSI usa el IQN (iSCSI Qualify Name), donde el primer nmero representa el ao,
mes
y
la
organizacin
que
registr
el
dominio:
iqn.200601.com.openfiler:volume.vmware. Este nombre IQN no puede superar los 255
caracteres.
Los servidores ESXi vienen configurados, por defecto, con un iniciador de software
iSCSI. Este iniciador iSCSI transmite comandos SCSI por una red de datos. El
target, es decir, la cabina de datos iSCSI, recibe estos comandos SCSI y el SP los
procesa.
Es posible tener mltiples iniciadores y targets en nuestra red iSCSI. Y a diferencia
en las versiones anteriores, en vSphere 5, el iniciador de software no viene
instalado por defecto. Puedes ver el video tutorial de la instalacin del iniciador de
software iSCSI en vSphere ESXi en nuestro curso online gratuito de VMware
en: http://www.josemariagonzalez.es/curso-online-gratuito
VMware vSphere utiliza CHAP (Challenge Handshake Authentication Protocol)
para ofrecer lo que se denomina Initiator authentication. Es una buena prctica
aislar la red de gestin, de la red iSCSI y de la red donde estn conectadas todas las
mquinas virtuales.
Debido al hecho de que las redes IPs que usan la tecnologa iSCSI no encriptan los
datos trasmitidos, es aconsejable para configuraciones iSCSI, activar la
funcionalidad de CHAP que se incluye tanto en la cabina (target) como en el
iniciador de software iSCSI en el servidor ESXi.
Si configuras el servidor ESXi con la opcin de CHAP para acceder a una LUN iSCSI
y despus deshabilitas CHAP en el servidor, el acceso a las LUNs iSCSI no se ver
afectado hasta que no se reinicie el servidor ESX/ESXi o la cabina iSCSI. Puedes
activar el CHAP en la pestaa General despus de seleccionar las propiedades del
iniciador de software iSCSI.
Aviso: No olvides abrir el puerto 3260 en el firewall del servidor ESXi. El protocolo
iSCSI utiliza este puerto para la comunicacin entre la cabina iSCSI (Target) y el
servidor ESX (iSCSI initiator).
Descubriendo recursos NFS en servidores vSphere
esxcfg-vswitch l
Deberas de ver algo as:
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 64 7 64 9000
vmnic4,vmnic3
PortGroup Name VLAN ID Used Ports Uplinks
iSCSI2 0 1 vmnic4
iSCSI1 0 1 vmnic3
Paso 5: Habilita el iniciador de software iSCSI
Con el comando esxcfg-swiscsi e habilitas el iniciador de software iSCSI.
Paso 6: Muy importante: Crear el Binding de los VMkernel Ports con el iniciador de
software iSCSI
Primero, confirma el seudo-name de tu iniciador de software iSCSI. Lo puedes ver
con este comando.
esxcfg-scsidevs a
Deberas de ver algo as:
vmhba0 mptsas link-n/a sas.5001ec90e0ba7c00
(1:0.0) LSI Logic / Symbios Logic LSI1068E vmhba1 ata_piix link-n/a ide.vmhba1
(0:31.1) Intel Corporation 631xESB/632xESB IDE Controller
vmhba32 ata_piix link-n/a ide.vmhba32(0:31.1) Intel Corporation
631xESB/632xESB IDE Controller
vmhba33 iscsi_vmk link-n/a iscsi.vmhba33() Software iSCSI
En mi caso como ves, el seudo-name de mi iniciador software iSCSI es vmhba33
Segundo, determina el nombre exacto de los VMkernel ports de tus iniciadores
iSCSI. Lo puedes ver con este comando:
esxcfg-vmknic l
Interface Port Group/DVPort IP Family IP Address
Netmask Broadcast MAC Address MTU TSO MSS
Enabled Type
vmk3 iSCSI1 IPv4 10.10.1.1
255.255.255.0 10.10.5.255 00:50:56:7b:d8:21 9000 65535 true
STATIC
vmk4 iSCSI2 IPv4 10.10.2.1
255.255.255.0 10.10.5.255 00:50:56:7e:ae:81 9000 65535 true
En mi caso, como ves en la salida anterior, es el vmk3 y el vmk4.
Una vez que conozcas cul es el nombre del iniciador de software iSCSI (vmhba32)
y de los VMkernel ports (vmk3 y vmk4), ya puedes hacer el binding con el siguiente
comando:
esxcli swiscsi nic add n vmk3 d vmhba33 (crea el binding para el vmk3 VMkernel
port con el iniciador de software iSCSI vmhba33)
esxcli swiscsi nic add n vmk4 d vmhba33 (crea el binding para el vmk4 VMkernel
port con el iniciador de software iSCSI vmhba33)
Para verificar que se han creado bien los binding con los VMkernel ports y el
iniciador de software iSCSI, teclea el siguiente comando:
esxcli swiscsi nic list d vmhba33
Deberas de ver que los dos VMkernel ports estn incluidos en el iniciador de
software iSCSI.
Paso 7: Conecta la cabina iSCSI a tu entorno vSphere ESXi
vSphere utiliza un sistema de archivos propietario de VMware llamado VMFS de las siglas en ingles Virtual Machine File System- como sistema de archivos, el
cual est optimizado para ejecutar mltiples mquinas virtuales como una carga de
trabajo nica (workload).
Este sistema de archivos soporta journaling, est optimizado para albergar
mquinas virtuales y soporta funciones de clustering a nivel de sistema de archivos.
vSphere ofrece asignacin dinmica del almacenamiento mediante la
funcionalidad vStorage Thin Provisioning. VMware soporta Thin Provisioning a
nivel de sistema de archivos en VMFS pero, adems, tu cabina de datos debe
soportar Thin Provisioning.
Se pueden acceder a los volmenes VMFS a travs del nombre del volumen, por el
nombre del DataStore o la direccin fsica: vmhba0:0:1:1. Todas las particiones
VMFS y NFS son montadas bajo el directorio /vmfs/volumes en tus servidores
VMware vSphere ESXi.
EL nmero mximo de extenders (nmero de LUNs que podemos unir como si de
una sola LUN se tratara) para un DataStore VMFS es de 32. Por lo tanto, el tamao
mximo de un volumen VMFS es de 64TB menos 16K (metadata).
Los volmenes VMFS que pueden ser "desmontados" con el comando umount son
los DataStores VMFS montados y todos los volmenes NFS. Cuando se elimina un
DataStore VMFS desde un servidor vSphere ESXi, este es eliminado en todos los
servidores vSphere ESXi que tuvieran conectividad con el DataStore. Por eso es
conveniente, siempre que se cambia o reconfigura el acceso a los discos, hacer un
scan del fabric de fibra.
Aviso: Las LUNs (FC e iSCSI) pueden ser formateadas en VMFS-3 con diferentes
tamaos en el block size: 1MB - 256GB, 2MB - 512GB, 4MB - 1024GB y 8MB 2048GB. Por tanto, si formateas un volumen VMFS con un block size de 4MB, el
disco virtual no podr superar el tamao de 1TB (menos 512Bytes). A
continuacin, te muestro la tabla de los block size y el tamao de los ficheros en
VMFS-3:
de Linux, sin necesidad de tener que usar tarjetas especficas de FC como ocurre
con las tarjetas CNAs - de las siglas en ingles Converged Network adapters -.
Actualmente, esta iniciativa ha conseguido el respaldo de Microsoft, Red Hat, SuSe
y ahora de VMware, adems de estar soportada en los conmutadores Brocade y
Cisco, as como en los sistemas de almacenamiento de EMC y NetApp.
Open FCoE est soportado en vSphere 5 y solo hay que activarlo como si fuera
un iniciador iSCSI, o sea activamos el software FCoE Adapter en la configuracin
de los Storage Adapters del host ESXi nos aparecer un dispositivo vmhba (virtual)
que encapsular el trfico FC en un puerto VMkernel, sin la necesidad de tener que
comprar una tarjeta CNA.
Con Open FCoE podremos, en un futuro, utilizar cualquier adaptador que soporte
Open FCoE. Por ahora la lista est limitada a adaptadores Intel X520.
Si esta iniciativa avanza y llega a consolidarse, tendremos ms opciones a la hora de
escoger tarjetas con soporte FCoE.
Como siempre, si la tecnologa FCoE se estandariza veremos tambin unos precios
mucho ms competitivos que los precios de hoy en da.
Aviso: vCenter Server incluye una consola KVM (de las siglas en ingles
Keyboard, Video and Mouse) embebida en cada mquina virtual registrada en
el vCenter. El nmero mximo de sesiones concurrentes a la consola de una
mquina virtual es de 40.
Prerrequisitos hardware/software de vCenter Server 5
Requerimientos Hardware (Versin Windows):
Requerimientos Software:
vCenter Server incluye una pestaa llamada Maps la cual puedes usar para
ver una instantnea de cmo est configurado tu entorno virtual. Esta opcin
de Maps, te permite no solo exportar los mapas en diferentes formatos: JPG,
BMP, PNP, GIF, TIFF y EMF sino que ahora, en la versin vCenter Server 5,
podrs imprimirlos directamente a una impresora que tengas configurada en
tu servidor de vCenter.
Para exportar los mapas, selecciona File > Export > Export Maps. Despus,
selecciona la extensin del formato de la imagen a exportar.
Desde el vCenter Maps, puedes ver otros recursos de tu entorno virtual
como por ejemplo DataStore y Host resources.
Recuerda que los iconos en los mapas son interactivos y basta con hacer un
clic con el botn derecho del ratn sobre el icono para ejecutar acciones.
El uso de los mapas tambin es muy interesante para comprobar si tus
mquinas virtuales son compatibles con vMotion.
En la imagen anterior, observamos que la mquina virtual con nombre AD no
puede ser migrada con vMotion al servidor ESXi2.demos.local porque no est
conectada a la red de produccin, entre otras cosas.
Cmo aadir un servidor ESXi al inventario de vCenter Server?
Una vez que hayas instalado el servidor de vCenter (Windows o Linux) ya
podrs aadir tus servidores hosts ESXi al inventario para que estos puedan
ser gestionados y configurados.
Para aadirlos, previamente has de crear un objeto de inventario de tipo
DataCenter. Simplemente, selecciona con el botn derecho del ratn el
objeto inventario raz - el objeto de inventario raz del vCenter es el nombre
de red que le hayas dado a tu servidor de vCenter - y selecciona create
DataCenter.
Despus de que hayas creado el objeto de inventario DataCenter,
seleccinalo este objeto con el botn derecho del ratn y elije Add Host
hostd
hostd
hostd
hostd
/usr/libexec/hostd/nssquery
hostd
hostd
/usr/libexec/hostd/nssquery
hostd
hostd
hostd
hostd
hostd
hostd
hostd
hostd
~#
Si este agente estuviera parado, puedes arrancarlo desde la consola DCUI de
tu servidor ESXi seleccionado F2 > Restart Management Network.
Desde la opcin vCenter Server Setting > Statistics > Database Size puedes
crear simulacros cobre el tamao necesario para la base de datos de tu
vCenter. Recuerda que esta opcin es solo un simulacro y no cambia nada de
tu configuracin.
Aviso: En la imagen anterior, la cantidad de espacio estimado es para una
base de datos SQL. Si vas a utilizar en tu entorno una base de datos con
Oracle, asegrate de dividir por dos el valor mostrado con esta utilidad.
Resource Pools
Mquinas Virtuales
vApps, es decir, un vApp dentro de otro vApp.
Aviso: Las mquinas virtuales que usan discos FC RDM te permitirn usar
software de clustering, agentes de gestin SAN y software SCSI dentro de la
misma mquina virtual.
El tamao mximo de un RDM soportado en VMware vSphere 5 y en modo
fsico es de 64TB. Las mquinas virtuales en un DataCenter pueden ser
clonadas a otro diferente, pero no pueden ser migradas con vMotion.
Por supuesto, la mala noticia es que para poder disfrutar de Metro vMotion
necesitas, al menos, licencia Enterprise plus.
Configurando el Power Management en las mquinas virtuales
Una migracin con Low Priority (Perform with available CPU resources) no
reserva recursos en el host destino, por tanto, migraciones con low priority
siempre se ejecutan con xito, aunque es posible que el proceso de migracin
sea ms largo.
Recuerda que el nmero mximo de migraciones en caliente con vMotion,
para una red de 1Gb/s, es de 4 migraciones simultneas. Sin embargo, para
una red de 10Gb/s, el nmero de migraciones simultneas con vMotion sube
hasta 8.
Asimismo, el nmero mximo de migraciones simultneas con vMotion por
datastore es de 128.
Una mquina virtual que est usando VMDirectPatch I/O no puede ser
migrada con vMotion. VMotion soporta mquinas virtuales con discos RDM
(Raw Device Mapping) en compatibilidad fsica as como discos en modo thick
o thin.
Dicho sea de paso, el disco de una mquina virtual puede ser convertido de
thick a thin mientras que la mquina virtual est encendida y usando Storage
vMotion. Asimismo, la misma mquina virtual puede ser "inflada" de thin a
thick, pero solo mientras la mquina virtual est apagada usando la opcin de
inflate como muestro en la siguiente imagen:
Los usuarios del servidor ESXi, root y vpxuser, son asignados al role Administrator a
nivel del servidor ESXi.
El usuario vpxuser es una copia exacta del usuario root y el motivo de la existencia
de este usuario es permitirte cambiar la contrasea de root desde el vSphere
Client sin perder la conexin con el vCenter.
El usuario vpxuser no tiene ningn derecho (login, shell). Es muy buena prctica no
modificar las propiedades de este usuario ya que podramos, involuntariamente,
alterar el buen funcionamiento del servicio de logon en el host ESXi.
Este usuario vpxuser se crea al aadir el servidor ESX/ESXi al inventario del
vCenter.
Aviso: Si modificas las propiedades de este usuario, que dicho sea de paso no es
una mejor prctica, es muy probable que no puedas gestionar tu servidor ESXi
desde el vCenter. Para poder corregir esta situacin, sigue los siguientes pasos.
1. Desregistra y borra tu servidor ESXi del inventario de vCenter
Available Commands:
get
load
refresh
set
unload
Puedes configurar un servidor para que arranque con el host, para que arranque
manualmente o que arranque automticamente si otros puertos estn abiertos o
cerrados.
El firewall en ESXi est configurado, por defecto, con seguridad alta, bloqueando
todo el trfico de entrada y salida que no es necesario para el correcto
funcionamiento de vSphere y sus plugins.
Habilitando y deshabilitando el Lockdown mode en vSphere
Lockdown mode deshabilita todos los accesos directos a los hosts ESXi. De esta
forma solo ser posible acceder a tu servidor ESXi desde el vSphere Client
conectndose al vCenter.
Por defecto, no existe ningn usuario local en los hosts ESXi con lo que si quieres
crear un usuario local en tu servidor ESXi asegrate de hacerlo antes de activar el
Lockdown mode ya que despus de estar activado no podrs crear usuarios
locales.
Cmo podemos activar Lockdown Mode?
1. Desde la DCUI
3. Desde vCenter Server haciendo clic sobre host > Configuration > Security Profile
En este caso, es una mejor prctica configurar tus servidores ESXi para que se
unan a un dominio del directorio activo para que los usuarios que necesiten tener
acceso local tengan que identificarse contra un directorio centralizado (AD).
La ventaja de este modelo es que t, como administrador, puedes seguir usando los
usuarios o grupos de tu directorio activo o NIS para conceder acceso local a tus
servidores ESXi. Este modelo es ms seguro y fcil de implementar que el tener
que crear cuentas independientes locales por cada uno de tus servidores ESXi.
Por supuesto, una vez que integres tu servidor ESXi con tu directorio activo o
servidor NIS, podrs seguir teniendo la posibilidad de crear usuarios o grupos
locales a nivel de ESXi.
Para aadir tu servidor ESXi a tu directorio activo selecciona la pestaa de
Configuration > Authentication Services
Una vez dentro de este men bsicamente tienes que introducir los datos de tu
domino (nombre, usuario y passowrd) y seleccionar Join Domain
Aviso: ESXi 5 automticamente concede acceso de administrador al grupo del
directorio activo llamado ESX Admins lo cual permite la creacin de otros grupos
de administradores globales.
Los resource pools pueden ser creados a nivel de servidor ESXi o clster VMware
DRS, pudiendo ser editados y modificados dinmicamente.
El indicador amarillo durante el ajuste de los recursos en un resource pool, muestra
la cantidad recomendada para ese recurso.
El memory overhead de las mquinas virtuales tambin consume memoria en el
resource pool y, por lo tanto, esta memoria es incluida en la reserva del resource pool.
Aunque VMware recomienda el uso y las buenas prcticas dentro de los resource
pool, no es aconsejable crear una jerarqua de ms de tres resource pools. La
profundidad mxima de esta jerarqua en los resource pools es de 8. Esto creara
un nivel de burocracia excesivo en cuanto al control de acceso se refiere.
Aviso: El nmero mximo de resource pools por host es de 1.600
Cambiando los recursos desde el Resource Allocation
Puesto que todas las mquinas virtuales acceden directamente a los recursos
fsicos, estas no sabrn qu hacer cuando todas las mquinas virtuales estn
accediendo a los mismos recursos, es decir, cuando haya contencin en tu sistema.
Por consiguiente, vSphere incluye un mecanismo para controlar que mquina
virtual accede a que recursos y por cuanto tiempo y prioridad.
Cuando la memoria o la CPU de un servidor ESXi est en overcommitted, es decir,
las mquinas virtuales estn configuradas con ms memoria y ciclos de reloj de
CPU de lo que dispone fsicamente el servidor ESXi, necesitamos tener un
mecanismo para garantizar los accesos.
Es aqu donde entran los conceptos de Shares, Limits y Reservation.
Limit: Es el valor consumido de ciclos de reloj de CPU o memoria fsica del servidor
ESXi del cual no es posible pasarse.
Reservation: Este valor es definido en Mhz para CPU y MB para memoria RAM y
representa un valor que debe estar disponible cuando la mquina virtual se
enciende.
Shares: Es un valor que especifica la prioridad relativa o la importancia de acceso de
una mquina virtual a un recurso determinado. Los shares compiten entre el lmite
y la reserva.
Por consiguiente, con estos tres parmetros podemos definir SLAs - de las siglas en
ingls Sevice Level Agreement - para todas y cada una de nuestras mquinas
virtuales. Los shares, limits y reservation tambin estn disponibles a nivel de
resource pool.
Nota que cuando no hay contencin entre mquinas virtuales, el cambio de la
configuracin de los shares no tiene ningn efecto. No obstante, cuando hay
contencin entre dos mquinas virtuales a nivel de CPU y defines unos shares ms
altos a una mquina virtual, estars dando una prioridad ms alta a esta mquina
virtual sobre la otra.
Es posible cambiar el valor de los shares de CPU y la reserva de memoria desde la
pestaa Resource Allocation a nivel de Cluster o a nivel de host ESXi cuando este
no est configurado en un clster.
Asimismo, tambin es posible modificar en "caliente" la reserva de CPU y el tipo de
reserva, Fixed o Expandible.
Cuando una mquina virtual, con la configuracin en shares de memoria en custom,
es aadida a un resource pool, es posible que recibas un warning que indica que la
mquina virtual obtendr un porcentaje muy alto del total de los shares para la
memoria. Cambia la configuracin de los shares de custom a high, medium o low
para evitar este warning.
Cuando aades un servidor vSphere ESXi a un clster y la opcin de DRS no est
habilitada, los resource pools que estaban en el servidor vSphere ESX/ESXi son
eliminados. Asimismo, si creas un clster sin la opcin de DRS, no podrs crear
resource pools a nivel de clster.
Cambio dinmico de los Resource Pools
Es posible incluir ms de una mquina virtual en un mismo resource pool. En este
caso, todas las mquinas virtuales del resource pool competirn por los mismos
recursos fsicos especificados en el resource pool.
En el caso de que el resource pool no haya sido configurado con la opcin
Explandable Reservation, el rendimiento de las mquinas virtuales puede llegar a
verse afectado.
Cuando una mquina virtual quiere hacer una operacin de E/S al disco FC
compartido de la cabina de almacenamiento, el VMkernel ejecuta las siguientes
tareas:
1 - El archivo correspondiente a la mquina virtual es localizado en el DataStore
VMFS.
2 - La solicitud de los bloques en el disco virtual es asignada a los bloques en el
disco fsico apropiado.
Una mquina virtual puede tener un cuello de botella a nivel de E/S de disco si el
contador SCSI queue length es alto.
Puedes ver en uno de nuestros videos tutoriales de formacin gratuitos los dos
contadores importantes a monitorizar para ver si hay un cuello de botella a nivel
de disco. Tambin aprenders a ver como se monitorizan estos
contadores: http://www.josemariagonzalez.es/curso-online-gratuito
Una aplicacin en una mquina virtual puede experimentar un rendimiento
pobre, aunque la mquina virtual tenga memoria disponible, ya que puede no
tener memoria fsica disponible. El nmero mximo de vCPUs con el que puedes
configurar una mquina virtual es ahora de 32.
Para mejorar el rendimiento de una mquina virtual ejecuta los siguientes pasos:
1. Deshabilita dispositivos no usados como puertos COM, floppies o CD-ROM.
2. Optimiza la mquina virtual como si fuera una mquina fsica.
3. Pon mquinas virtuales con requerimientos similares en el mismo servidor
vSphere ESX/ESXi.
Haz clic con el botn derecho sobre la LUN que quieres monitorizar y selecciona
Add Alarm.
Crea una alarma para el DataStore que quieres monitorizar, selecciona el
contador "DataStore Disk Overallocation" y determina el porcentaje apropiado.
Despus, desde la pestaa de Actions, crea una accin que enve una notificacin
va email al administrador.
Aviso: Puedes convertir un disco de mquina virtual de thin a thick con la opcin
inflate con la mquina virtual apagada.
Asimismo, tambin puedes convertir un disco de thin a thick cuando haces una
migracin con Storage vMotion y seleccionas cambiar el tipo de disco a Thick.
El uso del New Task Wizard en vSphere
Con el nuevo New Task Wizard ahora es posible crear y programar las siguientes
tareas: Create a snapshot of a virtual machine, Enter a host in Maintanance Mode,
Create a virtual machine template, Migrate a virtual machine with vMotion, etc.
Para automatizar estas alarmas, selecciona Home, Management, Scheduled tasks y
haz clic en New.
Por defecto, vCenter crea 55 alarmas pre-definidas sobre el objeto inventario
raz. Estas alarmas son de solo lectura, excepto cuando editas las alarmas desde el
objeto inventario donde fueron definidas. En ese caso podrs modificar las
alarmas pre creadas.
Configurando vCenter Server para enviar notificaciones por email
Visibilidad de todas las LUNs (FC, iSCSI o NAS) usadas por la MV.
Si claro, VMware HA levantara las dos mquinas virtuales automticamente si lo tienes configurado - pero estars unos minutos sin ningn controlador
de dominio, y no querrs que esto pase, verdad?
Aviso: No obstante, dada una mquina virtual en modo VMware Fault
Tolerant, puede suceder que tanto la copia primaria como la copia secundaria
residan en el mismo host ESX/ESXi.
Este caso solo puede darse cuando la mquina virtual en modo Fault Tolerant
est apagada. Para poder activar FT es necesario previamente tener HA
configurado.
Fault Tolerance y el panel Summary
El nmero mximo de discos virtuales que una mquina virtual puede tener
cuando se protege con Fault Tolerance es de 16 virtual disk.
Asimismo, no es posible proteger ms de 4 mquinas virtuales con FT por
servidor ESXi.
Otra de las limitaciones en VMware FT es el hecho de que no podrs asignar
ms de 64GB de memoria RAM a una mquina virtual protegida con FT.
VMware High Availability Services (HA)
Antes de configurar VMware HA, verifica que todas las mquinas virtuales
pueden ejecutarse en los nodos que vayan a formar el clster. Recuerda que
el acceso a recursos comunes como LUNs y redes virtuales es vital para que
VMware HA funcione correctamente.
Para crear un clster con la opcin de HA, selecciona el objeto de inventario
datacenter con el botn derecho del ratn y selecciona create new clster. En
la imagen anterior se muestra el wizard de creacin de un clster. Para activa
la parte de HA del clster solo tienes que marcar la opcin Turn on VMware
HA. Es una muy buena prctica tener HA y DRS activados juntos. DRS se
activa de la misma forma que activamos VMware HA.
VMware HA solo reiniciar las mquinas virtuales en otro servidor vSphere
ESXi cuando uno de los servidores del clster se asla de la red o un host falla.
Recuerda que para que VMware HA funcione perfectamente, todos los
servidores vSphere ESX/ESXi en el clster deben tener acceso a los
DataStores compartidos por todos los servidores ESX/ESXi.
Asegrate que tu servidor DNS funciona perfectamente y que puedes hacer
ping por nombre corto, FQDN, alias y direccin IP desde todos los servidores
ESX/ESXi y desde el vCenter, as como al default gateway.
VMware HA instala un agente en cada servidor ESXi el cual monitoriza el
host ESXi as como las VMware tools en todas y cada una de las mquinas
virtuales registradas. Asimismo, y opcionalmente, este agente tambin puede
ser configurado para monitorizar los heartbeats de las aplicaciones que estn
corriendo en las mquinas virtuales.
Cuando un servidor vSphere ESXi es puesto en modo mantenimiento en un
clster HA/DRS, las mquinas virtuales se migrarn automticamente a otros
servidores vSphere ESXi, siempre que el clster est configurado en fully
automated. Si el clster est configurado en partially automated, el
administrador de vCenter deber mover las mquinas virtuales
manualmente. Recuerda los tres niveles de automatizacin para un clster
DRS: Manual, Partially Automated y Fully automated.
Es recomendable tener dos tarjetas de red para el control del latido del
clster (heartbeat). Asimismo, los uplinks vmnic0 y vmnic1 en mi ejemplo,
deberan estar conectados a switches fsicos diferentes para estar protegidos
tambin contra fallos en la capa de red fsica.
Una vez que lo hayas instalados, podrs actualizar los siguientes objetos:
ESXi, Virtual Appliances, VMware Tools y hardware virtual.
Gracias y Cierre
Me gustara darte las gracias personalmente por haber visitado nuestro blog
virtualizacin & Cloud Computing y haberte suscrito a este eBook sobre
virtualizacin con VMware vSphere.
Me gustara poder obsequiarte con un descuento del 31% en mi curso bsico
online lder de ventas en Udemy:
Virtualizacin con VMware aplicada al mundo empresarial.
Ademas, si te gustan las emociones fuertes y ya tienes un "elevado" nivel de
administracin de VMware vSphere, me gustara obsequiarte mi curso
online avanzado VMware vSphere con un 33% de descuento!
En los enlaces que te adjunto arriba en este correo tendrs toda la
informacin de ambos cursos online VMware, as como el cdigo de
descuento ya aplicado.
Muchas gracias y nos vemos online!. Y recuerda, estamos disponibles para
cualquier duda, pregunta o sugerencia que tengas en este correo electrnico:
info@josemariagonzalez.es
Jose Maria Gonzalez
CEO & Founder
www.jmgvirtualconsulting.com
Virtualizacin con
VMware vSphere
eBook
por
Jos Mara Gonzlez