Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Free Ebook Vmware Jose Maria Gonzalez
Free Ebook Vmware Jose Maria Gonzalez
VMware vSphere
eBook
por
José María González
VMware vSphere 6: What´s New (Este curso es necesario solo para los
candidatos que ya tengan la certificación oficial VCP5)
http://www.jmgvirtualconsulting.com/Formacion/VMware/VMware-
vSphere-ICM-Install-Configure-and-Manage-6
Para ver los cursos autorizados oficiales por VMware, donde se imparten los
cursos oficiales, puedes visitar la siguiente dirección web:
http://www.jmgvirtualconsulting.com/formacion
4. Si no eres VCP pero has asistido a uno de los cursos requeridos para la
certificación oficial VCP4™ (VMware Install, Configure and Manage):
http://www.jmgvirtualconsulting.com/formacion
Los cursos que no estén autorizados por VMware, no cumplen los requisitos
para la certificación VCP5 en vSphere™ 6. Asegúrate de asistir a un curso
oficial VMware confirmando que dicho curso aparece en la página web de
VMware:
http://mylearn.vmware.com/mgrreg/index.cfm
En el examen hay 125 preguntas tipo test. Tienes 90 minutos para responder
a todas las preguntas. En países donde el inglés no es el primer idioma, los
candidatos recibirán automáticamente 30 minutos adicionales. Necesitas
una puntuación de 300 o más para poder aprobar el examen, siendo 500 la
puntuación máxima.
Podrás intentarlo de nuevo siempre que quieras, pero tendrás que esperar 7
días antes de intentarlo otra vez. Cada intento exige un nuevo pago para
cubrir el coste del examen.
http://mylearn.vmware.com/portals/certification/
http://mylearn.vmware.com/mgrSurvey/assessLogin.cfm
Los servidores y los desktops cada día son más potentes y el software de
virtualización de servidores ha demostrado, una vez más, ser una tecnología
indispensable para simplificar el centro de datos y dotarlo de inteligencia
propia.
VMware vSphere™ ESXi Dump Collector te permitirá recoger todos los log
score dumps de tus servidores ESXi. Otra nueva funcionalidad en VMware
vSphere™.
¿Cuántos puertos serie, paralelo, CDROMs, floppies, NICs, puede llegar a tener
una máquina virtual?
Asimismo, recuerda que aunque una máquina virtual puede tener como
número máximo 10 tarjetas virtuales, solo podrás conectar cuatro tarjetas
máximo durante la creación de tus máquinas virtuales con el wizard de
creación de máquinas virtuales de vCenter Server.
http://www.josemariagonzalez.es/curso-online-gratuito
Básicamente, con una nueva tecnología llamada VMX swap, el tamaño del
memory overhead se crea en un fichero swap con lo que este espacio de
memoria puede llegar a ser re-utilizado por el hipervisor. Esta técnica
posibilita un aumento en el ratio de consolidación de VMware vSphere™ 5
con respecto a versiones anteriores de VMware.
Procesador: Solo CPUs de 64-bit x86, Intel o AMD, máximo 160 CPUs (cores
o hyperthreads).
Red: Una o más tarjetas Gigabit Ethernet. Las tarjetas Ethernet de 10Gb
también están soportadas. El número máximo de tarjetas de 1Gb Ethernet
(tg3 de Broadcom) por servidor es de 32.
Almacenamiento: disco SCSI, LUN (Logical Unit Number) FC, disco iSCSI o
RAID LUN con espacio disponible sin particionar.
Recuerda que los dos requerimientos necesarios para poder hacer boot from
SAN son:
En VMware ESX y ESXi hay más similitudes que diferencias, aunque quizá, el
beneficio más importante de ESXi sobre ESX es que ESXi aumenta la
seguridad y la fiabilidad de nuestro hipervisor.
3. La imagen del sistema en ESXi - system image - es una imagen bootable que
es cargada directamente en memoria física. El propio “installer” usa esa
misma imagen de sistema para copiar los ficheros en un disco local para
futuros arranques.
Por otro lado, en VMware vSphere™ ESXi 5 es posible hacer una instalación
de la imagen directamente en la memoria del servidor físico usando una
nueva funcionalidad llamada vSphere™ Auto Deploy ESXi Installation Option.
VMware vSphere™ ESXi 5 soporta ahora hasta 3.000 máquinas virtuales por
clúster HA/DRS con independencia del número de servidores ESXi que hayas
configurado en tu clúster.
Por consiguiente, y para evitar la instalación del binario de ESXi en una de tus
LUNs de la SAN FC, recuerda esta “Best Practices” de VMware para evitar la
sobre escritura de una LUN: Establece o solicita al administrador SAN de tu
empresa un “LUN Masking” o mejor aún, si vas a instalar el binario en discos
locales, desconecta los cables de la SAN de tu servidor ESXi. Además, está
mejor práctica reduce el tiempo que necesita el installer de VMware en
buscar discos conectados al sistema.
2. Cada LUN debería ser presentada a todos los servidores ESXi con el
mismo LUN ID.
Aviso: Una vez instalado, un servidor VMware vSphere™ ESXi 5 puede tener
hasta 256 LUNs FC (Fiber Channel) por servidor. Asimismo, el número
máximo del ID en FC es de 255 pues los IDs de FC empiezan por el número 0
y no por el número 1.
Sin embargo, el número máximo de caminos iSCSI que un servidor ESXi pues
ver es de 1.024.
Una instalación inicial de vSphere™ ESXi usa el formato GPT - de las siglas en
inglés GUID Particion Table en lugar del formato MBR - de las siglas en ingles
Master Boot Record - lo cual permite instalar ESXi en discos con un tamaño
superior a 2TB. No obstante, si actualizas de versión VMware ESX/ESXi 4.x a
ESXi 5 no se usara el formato GPT, sino que se mantendrá el formato MBR.
Una vez entres en la consola de tu servidor ESXi, via comando podrás ver los
logs de tu sistema, configurar las propiedades de los servicios de DNS, NTP,
arrancar máquinas virtuales, apagar servidores ESXi y un largo etcétera. Sin
embargo, una de las pocas tareas que no podrás hacer desde consola es la de
poner tu host ESXi en modo mantenimiento.
Para poder ver una guía de referencia de todos los comandos disponibles por
consola en la versión ESXi, te recomiendo que veas el episodio
correspondiente de nuestro canal de televisión web sobre la virtualización y
el cloud computing en español en la siguiente dirección:
http://youtube.com/blogvirtualizacion
Asimismo, el tamaño máximo para un volumen RDM (de las siglas en inglés
Raw Device Mapping) en VMFS-5 es de 64TB, siempre y cuando uses la
funcionalidad de extenders a nivel VMFS, de la cual hablaremos más adelante
en este libro, y el modo de compatibilidad de este RDM sea físico. Sin
embargo, para un volumen RDM VFMS-5 en modo de compatibilidad virtual,
el tamaño máximo es de 2TB menos 512 bytes.
Puedes ver más información sobre la configuración del block size en VMFS-
5 en nuestro curso online vmware gratutio:
http://www.josemariagonzalez.es/curso-online-gratuito
En cuanto al número máximo de targets que un servidor host puede ver con
un adaptador Broadcom 10GB iSCSI es de 128 targets. El número máximo
de tarjetas 1GB Ethernet Broadcom (bnx2) que un servidor host ESXi puede
tener es de 16.
Desde el vSphere Client, selecciona File > Export > Export System Logs.
Ten en cuenta el tamaño requerido para almacenar estos logs, sobre todo si
cambias el nivel de lo que quieres que se logee en tu sistemas. Para ponértelo
en contexto, los logs pueden llegar a crecer hasta 9GB en una instalación de
10 ESXi y aproximadamente 100 máquinas virtuales con respecto al nivel
estándar de logeo.
A diferencia de los switches físicos, no es posible conectar dos virtual switch juntos
mediante un ISL (InterSwitch Link Protocol), ni puedes mapear la misma tarjeta de
red a más de un virtual switch a la vez. Recuerda que sí es posible configurar un
virtual switch sin ninguna tarjeta de red, lo que es denominado como internal
switch only.
Cuando creas un NIC teaming (una o más tarjetas de red mapeadas a un virtual
switch para incrementar el ancho de banda o dotar de alta disponibilidad a la capa
de red), todas las tarjetas de red dentro del teaming pasan a ser activas por defecto.
Para crear virtual switches puedes usar el vSphere Client o, desde la consola del
servidor ESXi, puedes usar el comando: esxcfg-vswitch -a "nombre vswitch".
Recuerda que es posible cambiar el número de puertos en los VSS siempre que sea
necesario. Sin embargo, dicho cambio requiere un “reboot” del servidor ESXi para
que los cambios tengan efecto.
Si precisas tener que limitar el ancho de banda desde fuera hacia dentro y desde
dentro hacia afuera (outbound y inbound) tendrás que usar los switches
distribuidos (VDS). Recuerda que este switch distribuido se crea en el vCenter
Server, con lo que para usar VDS, aparte, debes de contar con una licencia de
vCenter.
Por defecto, y para los VSS, cuando creas un virtual switch por defecto es creado
con 120 puertos. Sin embargo, si utilizas la línea de comando y ejecutas
el comando “esxcfg-vswitch –l” verás que en realidad son 128 puertos.
Estos ocho puertos son puertos extra que usa el VMkernel internamente y que no
podemos usar desde la GUI. Estos ocho puertos extras solo pueden verse desde la
línea de comando en ESXi:
Aviso: Es posible que tengas la necesidad de limitar el ancho de banda en los
diferentes tipos de conexiones descritas anteriormente, y sobre todo, que tengas
que aliviar problemas de cuellos de botella en la capa de red. En capítulos
posteriores cubriremos algunas técnicas para aliviar cuellos de botella en los
diferentes componentes de vSphere 5.
Cada virtual switch, es una representación lógica vía software de un switch físico de
capa dos. Los tres tipos de virtual switch que puedes crear en un servidor ESXi son
los siguientes:
1. Internal switch only. Este switch es usado únicamente para conectar, vía red, las
máquinas virtuales instaladas en el mismo servidor VMware ESXi, las cuales no
necesitan conexión con el mundo exterior.
2. Virtual switch con un adaptador de red. Este switch es usado para conectar, vía
red, máquinas virtuales, Management Network (gestión) y puertos VMkernel con el
mundo exterior, o dicho de otro modo, con otros servidores y máquinas virtuales
de nuestro entorno virtual.
3. Virtual switch con más de un adaptador de red. Este switch es usado para
conectar, vía red, máquinas virtuales, Management Network y puertos VMkernel con
el mundo exterior con una funcionalidad adicional, como es el balanceo de carga y
redundancia a fallos en los componentes de red.
Las políticas de seguridad y de traffic shaping son configuradas a nivel de port group
y vSwitch. Una configuración incorrecta del traffic shaping afectaría no sólo al
tráfico de las máquinas virtuales sino también al tráfico en general.
En vSphere™ ESXi, una tarjeta mapeada a un switch virtual puede ser configurada
para trasmitir y recibir tramas “Jumbo Frame”. El MTU (Maximum Transmision
Unit) de un ”Jumbo Frame” es de 9000. VMware ESXi también soporta “Jumbo
Frames”, tanto en los VSS como en los VDS.
Ahora, también es posible activar desde la GUI de los VSS el uso de los mismos. La
configuración de Jumbo Frames es considerada una mejor práctica para las redes
de tipo iSCSI, vMotion y Fault Tolerance.
Aviso: Los tres tipos de virtual switch pueden soportar hasta un total de 4088
puertos por switch virtual estándar.
Para los tres tipos de virtual switch, no existen colisiones de red en el tráfico
interno. Asimismo la dirección MAC de los adaptadores de red conectados a los
virtual switches no será usada en ningún momento de forma interna.
Para ver las propiedades de tus tarjetas de red, selecciona el servidor ESXi en el
panel inventario, luego en la pestaña Configuration, selecciona el enlace Networking
en la parte Hardware y luego Properties en el switch virtual que tiene conectado el
adaptador de red que quieres modificar.
Existe nueva tecnología en vSphere™ ESXi que puedes usar para incrementar el
throughput de tus máquinas virtuales es el Split RX como veremos más adelante.
En los VSS, hay tres tipos diferentes de políticas de seguridad: Traffic shaping
Policy, NIC Teaming Policy y Security Policy. En un Virtual Distributed Switch,
aparte de estas tres políticas de seguridad, existe otra nueva, Port Blocking Policy.
Las políticas pueden ser definidas a nivel de virtual switch, las cuales se convertirían
también en las políticas por defecto para todos los port groups creados en dicho
virtual switch, o a nivel de port group.
Las políticas definidas a nivel de port group, siempre sobrescriben las políticas
definidas a nivel de virtual switch. Un vSwitch o vSwitch port group en "Promiscuous
Mode" permitirá que una máquina virtual pueda "escuchar" todo el tráfico
contenido en ese VSS y no solo el tráfico destinado para esta máquina virtual en
concreto.
Una mejor practica en la capa de red con vSphere™ es que antes de crear los
diferentes tipos de switches virtuales, protocolos de balanceo de carga, VLANs,
port groups y NIC teaming, hables con el administrador de tu red física sobre lo
que necesitas a nivel de red virtual.
Esta configuración suele ser útil cuando "pinchamos" un sistema IDS (Intrusion
Detection System) o sniffer en un virtual switch para analizar todas las tramas de
dicho switch.
MAC Address Changes: Accept - Significa que el virtual switch no haría un drop de
la trama entrante si la dirección MAC de ésta no coincide con la dirección MAC de
la máquina virtual conectada en ese port group. Por defecto, esta opción se suele
cambiar a Reject para evitar ataques tipo MAC spoofing.
Forged Transmit: Accept - Significa que el virtual switch no haría un drop de la trama
saliente si la dirección MAC de ésta no coincide con la dirección MAC de la
máquina virtual guardada en el fichero de configuración (.vmx) de dicha máquina
virtual. Por defecto, esta opción se suele cambiar a Reject para evitar ataques tipo
MAC flooding y MAC spoofing.
Recuerda que las políticas de seguridad de red a nivel de VSS y port group son
Reject (Promiscuous Mode), Accept (MAC address Changes) y Accept (Forget
Transmit).
Para ver más información sobre la configuración determinada con Microsoft NLB,
ver el KB número 1556 en la página de VMware: http://kb.vmware.com
Asimismo, cuando tengas que hacer una conversión P2V - de las siglas en inglés
Physical to Virtual - con el software de conversiones de VMware llamado
vConverter, asegúrate de configurar Allow Mac Adress Changes en Accept, si el
servidor físico que estas intentando convertir tiene software instalado que fue
licenciado usando la dirección MAC de su tarjeta física.
Esta política de seguridad de traffic shaping, para el vswitch y port group, está
desactivada por defecto. Con la opción network traffic shaping puedes limitar el
outbound peak bandwidth y el outbound average bandwidth.
Esta política de traffic shaping solo se aplica a las conexiones de dentro hacia fuera
(outbound), es decir, desde dentro del virtual switch hacia fuera del virtual switch.
No es posible definir una política de traffic shaping desde fuera del virtual switch
hacia dentro (inbound) en un VSS.
Una primera alternativa para limitar el tráfico de tipo inbound es la de usar algún
sistema externo de balanceo de carga o activar la opción de rate-limiting en tu
router físico.
En vSphere™ hay dos formas de migrar una máquina virtual desde un vSwitch
estándar a un Virtual Distributed Switch.
Para terminar con las diferencias entre un VSS y un VDS, estas son las tres
funcionalidades más importantes que están disponibles en los VDS y no en VSS:
NetFlow Monitoring
Recuerda que si usas un uplink que ya está previamente en uso en un VSS para
crear un VDS, las máquinas virtuales que estuvieran usando ese uplink perderán la
conectividad.
Aviso: Ten en cuenta que el Average Bandwidth y Peak Bandwidth son medidos en
Kbps, mientras que el Burst Size es medido en KB.
1. El adaptador de red con la configuración del port group puede ser asociado con
un port group existente en un Virtual Distributed Switch.
2. El port group también puede ser migrado desde un virtual switch estándar a un
VDS y viceversa.
Una mejor practica de VMware es la de usar VDS en lugar de VSS ya que los
swithes distribuidos ofrecen algunas funcionalidades Enterprise que no están
incluidas en los VSS.
Naturalmente tendrás que evaluar el coste adicional asociado al uso de los VDS ya
que solo es posible configurar VDS si tienes la licencia Enterprise plus.
Para habilitar el NIC teaming es necesario conectar más de una tarjeta de red física
a un único virtual switch o virtual distributed switch.
En un VSS con un port group de tipo Management Netowrk y un port group tipo
VMkernel, y mapeas dos uplinks al VSS, es posible separar el tráfico de gestión y
del trafico VMkernel seleccionando la política de balanceo "Explict Failover order".
Asimismo, es posible ver más información sobre la configuración actual de los VSS
con el siguiente comando desde la consola de servidor ESXi:
256 es el número máximo de port groups por switch virtual estándar (VSS de
las siglas en ingles virtual switch standard).
El almacenamiento es, sin duda, uno de los pilares más importantes de una solución
de virtualización. Es un componente crítico para poder dotar a nuestro entorno de
un plan de contingencia a fallos, alta disponibilidad y migración de máquinas
virtuales entre servidores VMware vSphere™ESXi.
El Zoning se hace a nivel de switch de fibra para restringir las conexiones de los
servidores ESXi o servidores físicos a la cabina de datos y prevenir que otros
servidores destruyan los datos en los volúmenes.
LUN Masking se puede hacer en dos niveles: a nivel de procesadores de datos (en
Ingles SP - Storage Processors) y a nivel de servidor ESXi. Aunque, en la actualidad
el LUN Masking se suele hacer más a nivel de SP, también es posible hacerlo a nivel
de servidor ESXi sobre todo cuando usamos Boot From SAN(BFS).
En consecuencia, una cabina con soporte VAAI para la nueva versión de VMware
vSphere™ ESXi tendrá un mayor rendimiento en las siguientes operaciones:
Fast/Full Copy nos permite realizar Storage vMotion sin tráfico en la red o las
HBAs, ya que lo realiza la cabina SAN. La duración de la migración disminuye en un
25%, según datos proporcionados por EMC.
Hardware Offloaded Locking es una gran funcionalidad. Hasta ahora las reservas
SCSI que se realizan sobre un datastore VMFS se realizan a nivel de LUN, por
tanto, en un momento dado, solo una máquina virtual puede acceder a la LUN en
algunas tareas, con Hardware Offloaded Locking el bloqueo se realiza a nivel de
bloque no de LUN. Esto nos permitirá aumentar el número de máquinas virtuales
por datastore en nuestros diseños y disminuirá el tiempo de creación de
datastores VMFS y NFS.
Thin Provisioning Stun evita que nos quedemos sin espacio en disco poniendo la
máquina virtual en pausa hasta que consigamos disco. Esta situación, puede llegar
a ocurrir si aprovisionamos en modo Thin y necesitamos más disco del que
tenemos.
Para terminar con VAAI, una cabina con soporte VAAI y con el uso de thin
provisioning ofrece la posibilidad de “reclamar” espacio cuando una máquina
virtual es migrada a un datastore diferente con Storage vMotion o cuando el disco
virtual es borrado.
Con el vSphere Client y desde la pestaña Storage Views podrás ver información
muy interesante relativa a tus datastores VMFS, como por ejemplo:
Para obtener más información sobre los DataStores VMFS, como, por ejemplo, el
estado del Multipathing actual y el espacio usado, selecciona la pestaña Storage
Views.
El seudo name vmhba32 es el nombre que el VMkernel utiliza para los iniciadores
software iSCSI. Recuerda que tanto el adaptador de software iSCSI como el
adaptador dependent hardware iSCSI necesitan un port group tipo VMkernel para
ser configurados del todo.
Si usas una adaptador de tipo dependent hardware iSCSI para tu conexión iSCSI, es
posible que el rendimiento de las tarjetas de red asociadas con este adaptador
muestren muy poca actividad, incluso cuando el trafico via iSCSI es muy alto. Esto
es consecuencia directa de que el trafico iSCSI hace un bypass del trafico normal
de red y no se verá reportado por las herramientas internas de monitorización de
red del servidor ESXi (esxtop).
Para acceder a las nuevas LUNs, no es necesario hacer un reboot del servidor ESXi.
Las nuevas LUNs serán descubiertas por los servidores ESXi siempre que se
realice un Rescan en cada servidor vSphere ESXi o desde el objeto de inventario
DataCenter.
QLA es el nombre corto del módulo del driver Linux para una HBA del proveedor
Qlogic.
LPFC es el nombre corto del módulo del driver Linux para una HBA del proveedor
Emulex.
Recuerda que las HBAs tiene un número identificativo único y global llamado
World Wide Nane, también conocido con el acrónimo WWN.
Una SAN de tipo iSCSI consiste de una cabina de datos con conexiones tipo iSCSI
(red de 1Gb o 10Gb Ethernet) la cual contiene una o más LUNs así como SPs. La
comunicación entre el host ESXi y la cabina iSCSI se establece a través de una red
Ethernet de datos.
iSCSI usa el IQN (iSCSI Qualify Name), donde el primer número representa el año,
mes y la organización que registró el dominio: iqn.2006-
01.com.openfiler:volume.vmware. Este nombre IQN no puede superar los 255
caracteres.
Los servidores ESXi vienen configurados, por defecto, con un iniciador de software
iSCSI. Este iniciador iSCSI transmite comandos SCSI por una red de datos. El
target, es decir, la cabina de datos iSCSI, recibe estos comandos SCSI y el SP los
procesa.
Si configuras el servidor ESXi con la opción de CHAP para acceder a una LUN iSCSI
y después deshabilitas CHAP en el servidor, el acceso a las LUNs iSCSI no se verá
afectado hasta que no se reinicie el servidor ESX/ESXi o la cabina iSCSI. Puedes
activar el CHAP en la pestaña General después de seleccionar las propiedades del
iniciador de software iSCSI.
Aviso: No olvides abrir el puerto 3260 en el firewall del servidor ESXi. El protocolo
iSCSI utiliza este puerto para la comunicación entre la cabina iSCSI (Target) y el
servidor ESX (iSCSI initiator).
ESXi solo soporta la versión 3 de NFS sobre el protocolo TCP. Los servidores ESXi
ganan acceso exclusivo a las máquinas virtuales creadas sobre un DataStore NFS
usando un fichero especial de bloqueo llamado .lck-xxx. En la versión 6 de VMware
ESXi, ya es posible usar NFS versión 4.1!
La idea general es, después de seguir todos los pasos siguientes, tener al
menos dos caminos por LUN activos para que de esta manera podamos aumentar,
no solo la disponibilidad con VMware multipathing sino también, el ancho de banda
de E/S de nuestros datastores en vSphere™ ESXi.
Este paso (Jumbo Frames) tienes que hacerlo desde línea comando para la versión
ESX/ESXi 4.x pues en los vswitch estándares de esta versión no tienes la opción de
hacerlo desde la GUI (si está disponible en los vswitch distribuidos). Para la nueva
versión de vSphere™ ESXi 5 ya es posible activar el Jumbo Frames también desde
la GUI para los VSS.
Aquí, dependerá de las tarjetas de red que tengas cableadas y de las controladoras
de disco que tengas en tu cabina.
Al menos, deberías de configurar dos VMkernel Ports con dos tarjetas de red para
tener, tanto balanceo de carga con RR (de las siglas en inglés Round Robin) como
mecanismo de balanceo de carga.
esxcfg-vswitch –A iSCSI1 vSwitch1 ( crea un VMkernel port llamado iSCSI1 )
Primero, asegúrate que tienes al menos dos tarjetas de red físicas sin asignar a otro
vswitch. Lo puedes ver con este comando esxcfg-nics –l.
Aquí viene lo bueno. Por defecto, cuando creas un team en un vswitch las dos
tarjetas en el team se convierten por defecto en activa/activa. Para que
el multipathing ESXi funcione con el iniciador de software iSCSI debes cambiar las
propiedades del multipathing. Lo explicaré en el siguiente paso.
esxcfg-vswitch –l
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 64 7 64 9000
vmnic3,vmnic4
PortGroup Name VLAN ID Used Ports Uplinks
iSCSI2 0 1 vmnic3,vmnic4
iSCSI1 0 1 vmnic3,vmnic4
Aquí, puedes ver que las dos tarjetas están asociadas en los dos VMkernel Ports.
Esto es lo que tienes que cambiar con el siguiente comando.
Para verificar que has tecleado bien los comandos anteriores, vuelve a teclear este
comando para ver la salida:
esxcfg-vswitch –l
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 64 7 64 9000
vmnic4,vmnic3
PortGroup Name VLAN ID Used Ports Uplinks
iSCSI2 0 1 vmnic4
iSCSI1 0 1 vmnic3
Paso 6: Muy importante: Crear el Binding de los VMkernel Ports con el iniciador de
software iSCSI
esxcfg-scsidevs –a
esxcfg-vmknic –l
esxcli swiscsi nic add –n vmk3 –d vmhba33 (crea el binding para el vmk3 VMkernel
port con el iniciador de software iSCSI vmhba33)
esxcli swiscsi nic add –n vmk4 –d vmhba33 (crea el binding para el vmk4 VMkernel
port con el iniciador de software iSCSI vmhba33)
Para verificar que se han creado bien los binding con los VMkernel ports y el
iniciador de software iSCSI, teclea el siguiente comando:
Deberías de ver que los dos VMkernel ports están incluidos en el iniciador de
software iSCSI.
Recibirás un mensaje que te pide hacer un Rescan de todas las HBAs. Dile que
estás de acuerdo y en unos minutos deberías de ver tus LUNs si estas han sido
configuradas correctamente en tu cabina y los servidores VMware vSphere™
ESXi tienen acceso a las LUNs.
Se pueden acceder a los volúmenes VMFS a través del nombre del volumen, por el
nombre del DataStore o la dirección física: vmhba0:0:1:1. Todas las particiones
VMFS y NFS son montadas bajo el directorio /vmfs/volumes en tus servidores
VMware vSphere™ ESXi.
Los volúmenes VMFS que pueden ser "desmontados" con el comando umount son
los DataStores VMFS montados y todos los volúmenes NFS. Cuando se elimina un
DataStore VMFS desde un servidor vSphere™ ESXi, este es eliminado en todos los
servidores vSphere™ ESXi que tuvieran conectividad con el DataStore. Por eso es
conveniente, siempre que se cambia o reconfigura el acceso a los discos, hacer un
scan del fabric de fibra.
Aviso: Las LUNs (FC e iSCSI) pueden ser formateadas en VMFS-3 con diferentes
tamaños en el block size: 1MB - 256GB, 2MB - 512GB, 4MB - 1024GB y 8MB -
2048GB. Por tanto, si formateas un volumen VMFS con un block size de 4MB, el
disco virtual no podrá superar el tamaño de 1TB (menos 512Bytes). A
continuación, te muestro la tabla de los block size y el tamaño de los ficheros en
VMFS-3:
Open FCoE está soportado en vSphere™ 5 y solo hay que activarlo como si fuera
un iniciador iSCSI, o sea activamos el “software FCoE Adapter” en la configuración
de los Storage Adapters del host ESXi nos aparecerá un dispositivo vmhba (virtual)
que encapsulará el tráfico FC en un puerto VMkernel, sin la necesidad de tener que
comprar una tarjeta CNA.
Con Open FCoE podremos, en un futuro, utilizar cualquier adaptador que soporte
Open FCoE. Por ahora la lista está limitada a adaptadores Intel X520.
El algoritmo MRU, es seleccionado por defecto por vSphere™ para las cabinas de
almacenamiento Activa/Pasiva mientras que Fixed es seleccionado para las cabinas
de tipo Activa/Activa.
Sin embargo, para las cabinas de tipo activa/pasiva solo un procesador de datos
puede hacer un I/O de disco. Esto no significa que en esta configuración haya un
procesador de datos en modo standby sin hacer ningún I/O de disco. Todo lo
contrario, lo que para una LUN un SP puede estar configurado como pasivo, para
otra LUN este mismo SP puede estar configurado como activo, con lo que los dos
SP están procesando I/Os pero no a la misma LUN. Esto cambia con el uso de
ALUA, que no es más que el proceso de convertir una cabina activa/pasiva en
“activa/activa” mediante la activación, y valga la redundancia, de la interface de
interconexión interna entre los dos SPs.
Una sola instancia de vCenter Server soporta un máximo de 1.000 hosts ESXi
y 15.000 máquinas virtuales registradas (10.000 máquinas virtuales
encendidas). Sin embargo, en el hipotético caso que necesitaras gestionar
más de 1.000 servidores ESXi o 10.000 máquinas virtuales, tendrías que
comprar otra licencia de vCenter y conectar estos sistemas de vCenter en lo
que se denomina un group en mode Linked.
Recuerda que no es posible conectar via Linked mode dos vCenter Servers
de versiones diferentes. Por ejemplo, vCenter 4.1 y vCenter 5.0 no se
pueden conectar usando la funcionalidad de Linked mode.
Con vCenter Server podemos gestionar los siguientes servicios de una forma
centralizada: High Availability (HA), Distributed Resource Scheduler (DRS) y
Data Recovery.
VMware soporta vCenter Server en una máquina virtual. Los beneficios son
los siguientes: vCenter puede ser migrado con vMotion, es posible hacer un
backup usando vCenter Data Recovery y éste puede ser protegido con
VMware High Availability.
Los módulos VMware vCenter Update Manager, VMware vCenter Guided
Consolidation, VMware vCenter Convert, VMware Data Recovery, VMware
vCenter CapacityIQ, VMware AppSpeed Server y VMware Site Recovery
Mananger no están preinstalados cuando instalamos vCenter Server y, por
consiguiente, deben de ser instalados a posteriori.
Aviso: vCenter Server incluye una consola KVM (de las siglas en ingles
Keyboard, Video and Mouse) embebida en cada máquina virtual registrada en
el vCenter. El número máximo de sesiones concurrentes a la consola de una
máquina virtual es de 40.
Requerimientos Software:
v Oracle
Ø Oracle 10g F2
Ø Oracle 11g
v IBM DB2 9.5 y 9.7
v Microsoft SQL
Ø SQL Server Server 2005 SP3 (recomendado SP4)
Ø SQL Server 2008 R2 Express*
Ø SQL Server 2008
Sin embargo, a nivel de base de datos el appliance aún no soporta SQL. A día
de publicación de este libro solo soporta Oracle y DB2 (express) como base
de datos.
vCenter Server virtual Appliance usa un kernel versión 2.6.32.29-03 de SuSe
Linux y estos son sus requerimientos:
Para hacerlo, selecciona plug-ins, Plug-in Manager. Con el botón derecho del
ratón selecciona enable.
Recuerda que para que la pestaña Hardware Status te dé más información
relativa al estado del hardware físico del servidor ESXi, el servicio "VMware
VirtualCenter Management Webservices" ha de estar arrancado.
La opción del modo “Linked mode” te permite gestionar todo tu entorno desde
un punto único central, con independencia a que vCenter server te conectes
con tu vSphere client.
No solamente este modo Linked te facilita la gestión desde una sola consola
en entornos grandes. A veces, no hay más remedio que configurar nuestros
servidores de vCenter en modo Linked.
Por ejemplo, cuando tienes que registrar más de 1.000 servidores ESXi o más
de 10.000 máquinas virtuales encendidas - este es el límite de una sola
instancia de vCenter Server 5 (versión Windows) -, necesitas modificar la
configuración de vCenter 5 y configurarlo en modo Linked Mode.
Por supuesto, está claro que necesitarás otra licencia de vCenter Server y
otra base de datos en el backend para poder emparejar las dos instancias, o
más, y superar el límite mencionado.
No es posible emparejar servidores de vCenter que no pertenezcan a un
domino. Por consiguiente, si quiere emparejar servidores de vCenter en
modo standalone, tendrás primero que incluirlos en un dominio. Los vCenters
que vas a emparejar pueden estar en dos dominios diferentes, como por
ejemplo, vmware.com y Microsoft.com. No obstante, asegúrate de configurar
una relación de confianza bi-direccional en los directorios activos de los dos
dominios para que puedan emparejarse.
También, puede ocurrir en entornos con servidores ESX que si te quedas sin
espacio en la partición / (root), pueda causar disrupciones en la conectividad
de tu vCenter con el vSphere Client.
vCenter Server incluye una pestaña llamada Maps la cual puedes usar para
ver una instantánea de cómo está configurado tu entorno virtual. Esta opción
de Maps, te permite no solo exportar los mapas en diferentes formatos: JPG,
BMP, PNP, GIF, TIFF y EMF sino que ahora, en la versión vCenter Server 5,
podrás imprimirlos directamente a una impresora que tengas configurada en
tu servidor de vCenter.
Para exportar los mapas, selecciona File > Export > Export Maps. Después,
selecciona la extensión del formato de la imagen a exportar.
Recuerda que los iconos en los mapas son interactivos y basta con hacer un
clic con el botón derecho del ratón sobre el icono para ejecutar acciones.
Puede ser que no sea posible añadir un servidor ESXi al inventario y recibas
este error:
~ # ps | grep hostd
~#
Desde el menú Plugins, Manage Plugins puedes ver el Plugin Manager. Hay dos
pestañas de configuración, la pestaña Available y la pestaña Installed.
Recuerda que para usar y licenciar VMware Data Recovery has de tener
mínimo la licencia Essentials Plus.
Los tres ficheros más importantes que forman una máquina virtual son: el
fichero BIOS(.nvram), el fichero de configuración (.vmx) y el fichero del disco
virtual (.vmdk).
Las VMware tools incluyen los siguientes drivers: SCSI, SVGA, ratón,
VMXNET 3 adaptador de red, Memory Control (ballooning), Filesystem Sync
y soporte para el servicio Windows: Volume Shadow Copy Services (VSS).
Usa Ctrl + Alt + Ins en lugar de Ctrl + Alt + Del para entrar en la consola de
una máquina virtual.
Los objetos que pueden ser incluidos en un vApp son los siguientes:
Resource Pools
Máquinas Virtuales
vApps, es decir, un vApp dentro de otro vApp.
Una vez que hayas creado un vApp - usa el wizard de creación de vApps
( File > New > vApp) hay tres opciones en el IP Allocation Policy para un vApp:
Fixed, Transient y DHCP. Esto indica el mecanismo que tienen las máquinas
virtuales para ser configuradas con una IP de red.
Cuando creas un clone o template de una máquina virtual que tiene discos
RDM en formato "Physical Compatibility Mode", la máquina virtual
resultante crea el disco RDM pero cambia el formato a "Virtual Compatibility
Mode". Recuerda que es posible hacer clones y templates de máquinas
virtuales con discos RDM.
Aviso: Las máquinas virtuales que usan discos FC RDM te permitirán usar
software de clustering, agentes de gestión SAN y software SCSI dentro de la
misma máquina virtual.
Por defecto, la opción de logging para las máquinas virtuales está activada.
Una de las posibles razones por la que quizás quieras desactivar esta opción,
podría ser el poder maximizar el espacio disponible en los DataStores. No
confundas la opción de login con la de logging.
Hay seis archivos de log que siempre se mantienen archivados para todas y
cada una de máquinas virtuales existentes en tu entorno. Por ejemplo, de -
1.log a -6.log son los ficheros logs de las máquinas virtuales que se crearán
por primera vez cuando se cree una máquina virtual.
La próxima vez que un archivo de log sea creado, por ejemplo, cuando una
máquina virtual es apagada o encendida, ocurre lo siguiente:
Por ejemplo, podrías clonar una máquina virtual Windows desde el centro de
datos Data Center A al Data Center B. Sin embargo, no es posible migrar en
caliente una máquina virtual con VMotion desde un centro de datos a otro. El
error que se muestra en el vSphere Client es: "The input arguments had
entities that did not belong to the same datacenter".
2. Las máquinas virtuales deben tener acceso a las mismas subredes en los
host vSphere™ origen y destino.
VMware vMotion permite mover una máquina virtual desde un servidor ESXi
a otro. Una migración en frío (cold migration), mueve una máquina virtual
apagada y permite reubicar su disco virtual en otro DataStore. La migración
en frio (es decir con la máquina virtual apagada) pueden ejecutarse entre
CPUs de distintos fabricantes, Intel y AMD. Para migraciones con VMware
vMotion en caliente, las CPUs han de ser compatibles dentro de la misma
familia de procesador y del mismo fabricante.
Una migración con High Priority (Reserve CPU for Optimal VMotion
performance) reserva recursos en el host destino, por tanto, la migración
puede que no se ejecute si el host destino no tiene recursos suficientes.
Una migración con Low Priority (Perform with available CPU resources) no
reserva recursos en el host destino, por tanto, migraciones con low priority
siempre se ejecutan con éxito, aunque es posible que el proceso de migración
sea más largo.
Una máquina virtual que esté usando VMDirectPatch I/O no puede ser
migrada con vMotion. VMotion soporta máquinas virtuales con discos RDM
(Raw Device Mapping) en compatibilidad física así como discos en modo thick
o thin.
Dicho sea de paso, el disco de una máquina virtual puede ser convertido de
thick a thin mientras que la máquina virtual está encendida y usando Storage
vMotion. Asimismo, la misma máquina virtual puede ser "inflada" de thin a
thick, pero solo mientras la máquina virtual está apagada usando la opción de
inflate como muestro en la siguiente imagen:
Usuario o grupo: Se refiere al usuario o grupo que puede ejecutar una acción
determinada.
La combinación de un role, un usuario o grupo más el objeto representan los
permisos en VMware vSphere™.
Es posible definir nuevos roles a nivel de host ESXi, aunque no es una mejor
práctica ya que estos roles creados a nivel de host no se propagan al servidor
vCenter Server por lo que es recomendable crear nuevos roles en el servidor de
vCenter. El role del vCenter Server, Virtual Machine Administrator, tiene por
defecto, privilegios de performance.
Por consiguiente, una mejor practica es la de no cambiar los privilegios en los roles
existentes, sino, crear un clone de ese role, renómbralo con el nombre que más se
ajusta a nuestro entorno y después cambiar los privilegios que sean necesarios en
este role clonado.
Cuando clonas un role, el nuevo contendrá los mismos privilegios que el role
original. Asimismo, el role clonado no incluirá ningún usuario o grupos del original.
Otra de las mejores prácticas, en cuanto al uso de roles y usuarios se refiere, es la
de no usar el usuario de Windows Administrator para gestionar la infraestructura
vSphere. Es conveniente crear un usuario y asignar este usuario el role
Administrator.
Los usuarios del servidor ESXi, root y vpxuser, son asignados al role Administrator a
nivel del servidor ESXi.
El usuario vpxuser es una copia exacta del usuario root y el motivo de la existencia
de este usuario es permitirte cambiar la contraseña de root desde el vSphere
Client sin perder la conexión con el vCenter.
El usuario vpxuser no tiene ningún derecho (login, shell). Es muy buena práctica no
modificar las propiedades de este usuario ya que podríamos, involuntariamente,
alterar el buen funcionamiento del servicio de logon en el host ESXi.
Aviso: Si modificas las propiedades de este usuario, que dicho sea de paso no es
una mejor práctica, es muy probable que no puedas gestionar tu servidor ESXi
desde el vCenter. Para poder corregir esta situación, sigue los siguientes pasos.
Con el comando esxcli network firewal podrás abrir desde consola uno o varios
puertos del firewall de tu servidor vSphere ESXi 5.
Available Namespaces:
Available Commands:
Enabled: true
Loaded: true
~#
Aviso: El firewall del servidor vSphere™ ESXi ya no está basado en Linux IP Tables.
En su lugar, se han definido reglas y puertos por cada servicio. De esta forma ,
ahora es posible especificar el IP o el rango de IPs que quieres permitir o denegar
un servicio en concreto.
El firewall en ESXi está configurado, por defecto, con seguridad alta, bloqueando
todo el tráfico de entrada y salida que no es necesario para el correcto
funcionamiento de vSphere y sus plugins.
Lockdown mode deshabilita todos los accesos directos a los hosts ESXi. De esta
forma solo será posible acceder a tu servidor ESXi desde el vSphere Client
conectándose al vCenter.
Por defecto, no existe ningún usuario local en los hosts ESXi con lo que si quieres
crear un usuario local en tu servidor ESXi asegúrate de hacerlo antes de activar el
Lockdown mode ya que después de estar activado no podrás crear usuarios
locales.
1. Desde la DCUI
2. Al añadir el host para ser gestionado por vCenter Server
3. Desde vCenter Server haciendo clic sobre host > Configuration > Security Profile
La ventaja de este modelo es que tú, como administrador, puedes seguir usando los
usuarios o grupos de tu directorio activo o NIS para conceder acceso local a tus
servidores ESXi. Este modelo es más seguro y fácil de implementar que el tener
que crear cuentas independientes locales por cada uno de tus servidores ESXi.
Por supuesto, una vez que integres tu servidor ESXi con tu directorio activo o
servidor NIS, podrás seguir teniendo la posibilidad de crear usuarios o grupos
locales a nivel de ESXi.
Una vez dentro de este menú básicamente tienes que introducir los datos de tu
domino (nombre, usuario y passowrd) y seleccionar Join Domain
Puesto que todas las máquinas virtuales acceden directamente a los recursos
físicos, estas no sabrán qué hacer cuando todas las máquinas virtuales estén
accediendo a los mismos recursos, es decir, cuando haya contención en tu sistema.
Reservation: Este valor es definido en Mhz para CPU y MB para memoria RAM y
representa un valor que debe estar disponible cuando la máquina virtual se
enciende.
Por consiguiente, con estos tres parámetros podemos definir SLAs - de las siglas en
inglés Sevice Level Agreement - para todas y cada una de nuestras máquinas
virtuales. Los shares, limits y reservation también están disponibles a nivel de
resource pool.
Es posible incluir más de una máquina virtual en un mismo resource pool. En este
caso, todas las máquinas virtuales del resource pool competirán por los mismos
recursos físicos especificados en el resource pool.
El método adaptivo utiliza menos LUNs pero LUNs más grandes mientras que el
método predictivo, utiliza varias LUNs con diferentes tipos de RAID para
adaptarse mejor a las características de E/S de las diferentes aplicaciones.
Una buena práctica a la hora de configurar las LUNs, es crear LUNs de unos
800GB de tamaño y añadir entre 15-20 máquinas virtuales comprobando el
rendimiento.
Pero puede ser que cuando vas a añadir la máquina virtual número 5 se crea un
cuello de botella a nivel de LUN. Por eso es muy importante que antes de añadir
una nueva máquina virtual a una LUN, monitorices a nivel de E/S el delay de dicha
LUN. Si el rendimiento aun es óptimo, mete otra máquina virtual y vuelve a
monitorizar el rendimiento. Si el rendimiento sigue siendo bueno, sigue metiendo
más máquinas virtuales.
Cuando una máquina virtual quiere hacer una operación de E/S al disco FC
compartido de la cabina de almacenamiento, el VMkernel ejecuta las siguientes
tareas:
Es impórtate entender este proceso para poder monitorizar bien todos los
elementos o capas involucradas durante una operación de escritura.
El uso de iniciadores hardware iSCSI descarga al VMkernel de dos tareas
principales:
1. La encapsulación de PDU (Protocolo Data Unit ) iSCSI en paquetes TCP/IP
VMware VMkernel detecta las páginas de memoria que son idénticas en todas las
máquinas virtuales y asigna estas páginas a la misma dirección de memoria física,
con el consiguiente ahorro potencial de memoria física. Esta técnica es
denominada Transparent Memory Page Sharing (TMPS).
Un icono verde indica que el dispositivo está habilitado y activo. Un icono naranja
indica que el estado del dispositivo ha cambiado y el servidor host debe ser
reiniciado antes de que el dispositivo pueda ser utilizado por la máquina virtual.
Una vez asignado el hardware a la máquina virtual, este no podrá ser gestionado
por el servidor ESXi. La versión anterior ESX/ESXi 4.1 ya soportaba dispositivos
USB en modo passthrought. Para más información sobre la configuración de USB
en modo passthrought revisa el KB1022290.
Puedes conectar hasta dos dispositivos passthrought a una máquina virtual y solo
pueden ser tarjetas de red o tarjetas HBAs de fibra para la conexión a la SAN.
Detectando cuellos de botella en el componente disco
Una máquina virtual puede tener un cuello de botella a nivel de E/S de disco si el
contador SCSI queue length es alto.
Puedes ver en uno de nuestros videos tutoriales de formación gratuitos los dos
contadores importantes a monitorizar para ver si hay un cuello de botella a nivel
de disco. También aprenderás a ver como se monitorizan estos
contadores: http://www.josemariagonzalez.es/curso-online-gratuito
Para mejorar el rendimiento de una máquina virtual ejecuta los siguientes pasos:
Haz clic con el botón derecho sobre la LUN que quieres monitorizar y selecciona
Add Alarm.
Aviso: Puedes convertir un disco de máquina virtual de thin a thick con la opción
inflate con la máquina virtual apagada.
Asimismo, también puedes convertir un disco de thin a thick cuando haces una
migración con Storage vMotion y seleccionas cambiar el tipo de disco a Thick.
Aviso: Para configurar las notificaciones SMTP, el cliente vSphere debe estar
conectado al servidor vCenter.
Capítulo 10. Funcionalidades Enterprise en vSphere™
¿Cómo mover las máquinas virtuales de host con vMotion o de disco con
Storage vMotion?
Para migrar una máquina virtual, selecciona esta desde el inventario con el
botón derecho del rato y selecciona Migrate
También es posible migrar una máquina virtual con Storage vMotion con los
discos suspendidos. Storage VMotion no puede usarse en máquinas virtuales
con NPIV activado.
Es posible que los hosts ESXi involucrados en una migración en caliente con
vMotion no sean compatibles. Cuando veas una cruz roja, desde la pestaña
Maps, en un servidor vSphere ESX/ESXi de un clúster DRS/HA, significará
que este servidor no es compatible con VMotion.
Visibilidad de todas las LUNs (FC, iSCSI o NAS) usadas por la MV.
Asimismo, no podrás migrar una máquina virtual con Storage vMotion si esta
máquina virtual tiene snapshots activos y el disco virtual de dicha máquina
virtual ha sido configurado como independent non-presistent. También es
posible usar la funcionalidad de Storage vMotion para asegurarte que una
vez hayas renombrado tus máquinas virtuales, este nombre también será
actualizado a nivel de datastore.
El número máximo de migraciones concurrentes con Storage vMotion por
host es de 2.
Para instalar vSphere Data Recovery has de bajarte el appliance desde la web
de VMware, instalarlo en un Servidor ESXi gestionado por vCenter e instalar
el plugin cliente en el vSphere Client.
Este disco puede llegar a tener un tamaño de hasta 1TB para discos de FC y
de 500GB para discos compartidos via CIFS. El motivo es que si usas
tamaños más grandes, según VMware, el rendimiento disminuye
considerablemente.
Aviso: Recuerda que el Bus Sharing para el disco SCSI 0 (c:) es = None y el
Bus Sharing para el disco SCSI 1 (quorum) es = Virtual. Los discos RDM solo
están soportados en modo virtual.
La segunda opción es clúster entre hosts ESXi, el cual te protege contra fallos
de usuario, aplicaciones, sistemas operativos y hardware.
Aviso: Recuerda que en esta configuración el Bus Sharing para el disco SCSI 0
es = None y el Bus Sharing para el disco SCSI 1 es = Físico. Los discos RDM
están soportados tanto en modo virtual o físico.
La tercera opción es clúster entre máquina física ESXi y máquina virtual, la
cual te permite una solución de redundancia N+1 de bajo coste. En esta
configuración es posible que el failover del clúster falle si usas el driver
STORport Miniport.
Aviso: Recuerda que en esta configuración el Bus Sharing para el disco SCSI 0
es = None y el Bus Sharing para el disco SCSI 1 es = Físico. En esta
configuración, los discos RDM solo están soportados en modo físico.
Cuando activas Fault Tolerance en una máquina virtual, esta no puede tener
más de una CPU virtual (VMware SMP).
Este caso solo puede darse cuando la máquina virtual en modo Fault Tolerant
está apagada. Para poder activar FT es necesario previamente tener HA
configurado.
Para verificar si una máquina virtual está protegida con Fault Tolerance,
selecciona la máquina virtual y la pestaña Summary.
Aviso: En una configuración DRS con solo dos servidores ESXi, es posible que
un servidor ESXi esté usando el 100% de los recursos (memoria y CPU)
mientras que el otro servidor esté mucho más libre. Este es un caso típico de
que no existen recursos suficientes para ejecutar una migración en caliente
con vMotion o que las CPUs de los host en el clúster son incompatibles con
vMotion.
Cambiando el orden de prioridad en el arranque de mis máquinas virtuales en
VMware HA
Aviso: Recuerda que los settings a nivel de máquina virtual sobrescriben los
settings definidos a nivel de clúster.
Es recomendable tener dos tarjetas de red para el control del latido del
clúster (heartbeat). Asimismo, los uplinks vmnic0 y vmnic1 en mi ejemplo,
deberían estar conectados a switches físicos diferentes para estar protegidos
también contra fallos en la capa de red física.
Quizás DPM tenga más sentido en entornos grandes pues es donde más
dinero en energía y refrigeración puedes ahorrar.
No obstante, en clientes pequeños (4 servidores ESXi) donde hemos
configurado DPM, estamos ahorrando alrededor u unos 1.200 euros al año,
lo suficiente para comprarte otra licencia de VMware Essentiasl!
Para poder aplicar una configuración con host profile a un servidor ESXi este
tiene que ser puesto primero en modo mantenimiento (maintenance mode)
vCenter Update Manager incluye las siguientes baselines para las máquinas
virtuales : VMware Tools Upgrade to Match Host, VM hardware Upgrade to
Match Host y VA Upgrade to Laster. Y para los servidores ESXi son: Critical
Host Patches y Non-Critical Host Patches
Recuerda que no importa el número de servidores vSphere ESXi que tengas
en un clúster, solo podrás actualizar uno cada vez con vCenter Update
Manager.
Por último, los puertos que VMware Update Manager usa son: 8084, 9084,
9087.
De esta forma podrás crear SLAs - de las siglas en inglés Service Level
Agreetment - para todas y cada una de tus máquinas virtuales de una forma
rápida, sencilla y automatizada. Sin lugar a dudas, Storage Distribute
Resource Scheduler es una de las funcionalidades del centro de datos del
futuro el cual es virtual, flexible, dinámico y “plug & play”.
Gracias y Cierre
Me gustaría darte las gracias personalmente por haber visitado nuestro blog
virtualización & Cloud Computing y haberte suscrito a este eBook sobre
virtualización con VMware vSphere.
info@josemariagonzalez.es
eBook
por
José María González