Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
¿Qué es VMM?
Conceptos básicos sobre los objetos de red de VMM
Novedades de VMM
Introducción
Versiones de compilación de VMM
Notas de la versión: VMM
Activar o desactivar los datos de telemetría
Implementar una nube de VMM
Crear una nube VMM
Administrar una nube VMM
Implementación de un tejido de host protegido
Implementación de hosts protegidos
Configuración de HGS de reserva
Implementación de una plantilla de máquina virtual y un VHDX blindado
Implementación de una VM blindada
Implementación de una VM con Linux blindada
Implementación y administración de una infraestructura de red definida por software
(SDN)
Implementación de una controladora de red de nombre de host
Implementación de un SLB de nombre de host
Implementación de una puerta de enlace RAS de nombre de host
Implementación de SDN con PowerShell
Configuración de una red de VM en SDN
Cifrar redes de máquinas virtuales en SDN
Permiso y bloqueo del tráfico de VM con las ACL del puerto de SDN
Control del ancho de banda de red virtual de SDN con QoS
Equilibrio de carga del tráfico de red
Configuración de NAT para el reenvío de tráfico en un SDN
Enrutamiento del tráfico a través de redes en la infraestructura de SDN
Configuración de clústeres invitados de SDN
Actualización del certificado de servidor de NC
Configuración de IP virtuales de SLB de SDN
Copia de seguridad y restauración de la infraestructura de SDN
Quitar una SDN de VMM
Administración de recursos de SDN en el tejido de VMM
Implementación de Espacios de almacenamiento directo
Configuración de un clúster de Espacios de almacenamiento directo
hiperconvergente
Implementación y administración de clústeres de Azure Stack HCI en VMM
Configuración de un clúster de Espacios de almacenamiento directo desagregado
Administración de clústeres de Espacios de almacenamiento directo
Asignación de directivas QoS de almacenamiento para clústeres
Procedimientos
Plan
Requisitos del sistema: VMM
Planeamiento de la instalación de VMM
Planeamiento de una implementación de alta disponibilidad de VMM
Identificación de puertos y protocolos de VMM
Planeamiento de un tejido de proceso de VMM
Planeamiento del tejido de red de VMM
Identificación de matrices de almacenamiento admitidas
Actualización e instalación
Actualización de VMM
Instalar VMM
Instalar la consola de VMM
Habilitación de la sesión de consola mejorada
Implementar VMM para lograr una alta disponibilidad
Implementar un servidor de administración VMM de alta disponibilidad
Implementar una base de datos de SQL Server de alta disponibilidad para VMM
Implementación de una biblioteca VMM de alta disponibilidad
Configurar TLS 1.2
Implementación de paquetes acumulativos de actualizaciones
Copia de seguridad y restauración de VMM
Administrar la biblioteca VMM
Información general de la biblioteca
Agregar recursos basados en archivos a la biblioteca VMM
Agregar perfiles a la biblioteca VMM
Agregar plantillas de VM a la biblioteca VMM
Agregar plantillas de servicio a la biblioteca VMM
Administrar recursos de biblioteca de VMM
Administración de servidores de virtualización
Administrar grupos de host VMM
Agregar hosts y clústeres de Hyper-V existentes al tejido
Agregar un servidor Nano como un host o clúster de Hyper-V
Ejecutar un script en el host
Creación de un clúster desde hosts de Hyper-V independientes
Aprovisionamiento de un host o clúster de Hyper-V de equipos sin sistema
operativo
Crear un clúster invitado a partir de una plantilla de servicio de VMM
Configurar redes para hosts y clústeres de Hyper-V
Configuración del almacenamiento para hosts y clústeres de Hyper-V
Administración de MPIO para hosts y clústeres de Hyper-V
Administrar ACL de puerto extendido de Hyper-V
Administración de clústeres de Hyper-V
Actualizar hosts y clústeres de Hyper-V
Ejecutar una actualización sucesiva de los clústeres de Hyper-V
Hosts de Hyper-V de servicio para mantenimiento
Administrar servidores de VMware
Administración de servidores de administración
Administrar servidores de infraestructura
Administrar servidores de actualización
Administración de redes
Información general acerca del tejido de red
Configurar las redes lógicas
Configurar las redes lógicas en UR1
Administrar redes de máquina virtual
Configurar grupos de direcciones IP
Agregar una puerta de enlace de red
Configurar perfiles de puerto
Configurar conmutadores lógicos
Configuración de grupos de direcciones MAC
Integrar el equilibrio de carga con plantillas de servicio VMM
Configurar un servidor IPAM
Administrar el almacenamiento
Configuración de un tejido de almacenamiento
Configurar las clasificaciones de almacenamiento
Agregar dispositivos de almacenamiento
Asignar almacenamiento a grupos host
Configurar un servidor de destino de iSCSI de Microsoft
Configuración de un canal de fibra virtual
Configurar almacenamiento de archivos
Configurar réplica de almacenamiento en VMM
Administración SOFS
Configurar un servidor de archivos de escalabilidad horizontal (SOFS)
Realizar una actualización gradual en SOFS
Agregar un SOFS existente al tejido de VMM
Crear un clúster SOFS desde servidores independientes
Aprovisionar SOFS desde equipos sin sistema operativo
Administrar la configuración de SOFS
Administrar máquinas virtuales
Aprovisionar las máquinas virtuales
Implementar VM desde un VHD en blanco
Implementar VM desde un VHD existente
Clonar VM existentes
Implementar VM con aprovisionamiento rápido mediante la copia de SAN
Implementar VM desde una plantilla de VM
Implementar VM con Linux
Implementar VM anidadas
Convertir máquinas virtuales VMware en Hyper-V
Instalar un sistema operativo en una máquina virtual
Administrar la configuración de la máquina virtual
Administrar la optimización dinámica y de energía para VM
Creación de plantillas de rol de VM con VMM y Azure Pack
Migrar VM
Información general acerca de la migración
Migrar una VM
Migrar el almacenamiento de VM
Ejecutar una migración en vivo
Administrar roles y cuentas
Información general acerca de los roles y las cuentas
Configurar roles de usuario
Configurar cuentas de ejecución
Administrar usuarios de autoservicio
Realizar tareas de usuario de autoservicio
Supervisar VMM
Información general acerca de la supervisión
Configuración de la supervisión y la generación de informes con Operations
Manager
Integración con Azure
Agregar una suscripción de Azure en VMM
Administración de actualizaciones de máquina virtual
Administración de máquinas virtuales de Azure
Administración de suscripciones de Azure específicas de la región basadas en Azure
Resource Manager
¿Qué es Virtual Machine Manager?
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Página principal de System Center Virtual Machine Manager (VMM). VMM está incluido en System Center, un
conjunto de aplicaciones que se usa para configurar, administrar y transformar centros de datos tradicionales, y
que ayuda a proporcionar una experiencia de administración unificada en local, en el proveedor de servicios y
en la nube de Azure. Las capacidades de VMM incluyen:
Centro de datos : configure y administre los componentes del centro de datos como un único tejido en
VMM. Los componentes del centro de datos incluyen servidores de virtualización, componentes de redes y
recursos de almacenamiento. VMM aprovisiona y administra los recursos necesarios para crear e
implementar máquinas virtuales y servicios en nubes privadas.
Hosts de vir tualización : VMM puede agregar, aprovisionar y administrar clústeres y hosts de
virtualización Hyper-V y VMware.
Redes : agregue recursos de red al tejido de VMM, incluidos sitios de red definidos por subredes IP, LAN
virtuales (VLAN), conmutadores lógicos, direcciones IP estáticas y grupos de direcciones MAC. VMM
proporciona virtualización de red, con la posibilidad de crear y administrar redes virtuales y puertas de
enlace de red. La virtualización de red permite que varios inquilinos dispongan de redes aisladas y de sus
propios intervalos de direcciones IP para una mayor privacidad y seguridad. Con las puertas de enlace, las
máquinas virtuales de las redes virtuales se pueden conectar a redes físicas del mismo sitio o de otras
ubicaciones.
Almacenamiento : VMM puede detectar, clasificar, aprovisionar y asignar almacenamiento local y remoto.
VMM admite el almacenamiento en bloque (redes de área de almacenamiento [SAN] de canal de fibra, iSCSI
y SCSI conectadas en serie [SAS]).
Recursos de biblioteca : el tejido de VMM cuenta con una biblioteca de recursos basados y no basados en
archivos que se usan para crear e implementar máquinas virtuales y servicios en hosts de virtualización. Los
recursos basados en archivos incluyen discos duros virtuales, imágenes ISO y scripts. Los recursos no
basados en archivos incluyen plantillas y perfiles que se usan para estandarizar la creación de máquinas
virtuales. A los recursos de biblioteca se accede mediante recursos compartidos de biblioteca.
Recursos
Para cualquier pregunta o comentario relacionado con VMM, visite los foros de System Center Virtual
Machine Manager.
Para leer las entradas de blog del equipo de ingeniería de VMM, vea Blog de System Center.
Pasos siguientes
Obtenga información sobre los requisitos del sistema.
Aspectos básicos del objeto de red de Virtual
Machine Manager
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
System Center Virtual Machine Manager (VMM) forma parte del conjunto de aplicaciones System Center, que se
usa para configurar, administrar y transformar centros de datos tradicionales, y que permite proporcionar una
experiencia de administración unificada en el entorno local, el proveedor de servicios y la nube de Azure.
En este tema se describen los conceptos básicos que debe conocer antes de pasar a temas más complejos, como
las características y funciones avanzadas de VMM, y la planificación y el diseño de nubes públicas y privadas.
Objetos de red
Los siguientes objetos de red de VMM se usan para compilar la infraestructura de red básica de las Redes
definidas por software (SDN) de Microsoft que se usan en nubes públicas y privadas:
Hosts y grupo host
Hosts de Hyper-V administrados por VMM, organizados en grupos según la ubicación o el propósito.
Red lógica
Objetos lógicos que reflejan las redes físicas.
NOTE
La terminología de las redes lógicas ha cambiado desde 2019 UR1. Para obtener más información, vea Redes
lógicas en UR1.
Sitios de red
Agrupaciones lógicas de hosts, subredes IP y VLAN.
Grupos de direcciones IP (redes lógicas)
Grupo estático de direcciones IP que se usan para los pares de subred IP/VLAN de los sitios de red
asociados.
Redes de máquina virtual
Objetos abstractos que actúan como una interfaz para las redes lógicas.
Grupos de direcciones IP (redes de máquina virtual)
Grupo estático de direcciones IP para la red de VM.
Perfil de puerto de vínculo superior
Define el algoritmo de equilibrio de carga y el modo de formación de equipos para adaptadores físicos.
Se pueden aplicar perfiles de puerto de vínculo superior a los adaptadores de red físicos al implementar
conmutadores.
Perfil de puerto de adaptador de red virtual
Define las propiedades del adaptador de red virtual para los adaptadores de red virtuales disponibles con
el conmutador lógico.
Clasificación de puerto
Etiqueta para abstraer la configuración del perfil de puerto de adaptador de red virtual.
Conmutador lógico
Agrupa extensiones de conmutador virtual, perfiles de puerto y clasificaciones de puerto.
Puerta de enlace
Se usa para conectar una red de VM de virtualización de red de Hyper-V (HNV) a una red externa.
Para obtener más información sobre las SDN de Microsoft, vea Redes definidas por software.
Pasos siguientes
Para empezar a trabajar con VMM, vea Novedades e Instalación.
Novedades de System Center Virtual Machine
Manager
19/08/2021 • 39 minutes to read
En este artículo se detallan las nuevas características que se admiten en System Center 2019 - Virtual Machine
Manager (VMM). También se exponen las nuevas características de VMM 2019 UR1 y 2019 UR2.
NOTE
En VMM 1801 se introdujeron las características y actualizaciones de características que se indican a continuación, las
cuales se incluyen en VMM 2019.
Características incluidas en VMM 2019 (introducidas en VMM 1801)
Proceso
Virtualización anidada
VMM admite la característica de virtualización anidada que puede usar para ejecutar Hyper-V en una máquina
virtual de Hyper-V. En otras palabras, con la virtualización anidada, se puede virtualizar el mismo host de Hyper-
V. La virtualización anidada se puede habilitar fuera de banda mediante la configuración de host de Hyper-V y
PowerShell.
Puede usar esta funcionalidad para reducir los gastos de infraestructura en los escenarios de desarrollo, prueba,
demostración y aprendizaje. Con esta característica, también puede usar productos de administración de
virtualización de terceros con Hyper-V.
Puede habilitar o deshabilitar la característica de virtualización anidada mediante VMM. Puede configurar la
máquina virtual como un host en VMM y realizar operaciones de host de VMM en esta máquina virtual. Por
ejemplo, la optimización dinámica de VMM tiene en cuenta un host de máquina virtual anidada para la
ubicación. Para obtener más información, consulte el artículo Configuración de una máquina virtual anidada
como un host.
Migración de máquina virtual VMware (máquina virtual basada en firmware EFI) a la máquina virtual de Hyper-V
La migración actual de VMM en máquinas virtuales VMware a Hyper-V solo admite la migración de máquinas
virtuales basadas en BIOS.
VMM permite la migración de máquinas virtuales de VMware basadas en EFI a máquinas virtuales de Hyper-V
de segunda generación. Las máquinas virtuales VMware que se migran a la plataforma de Microsoft Hyper-V
pueden aprovechar las características de la segunda generación de Hyper-V.
Como parte de esta versión, el Asistente para conver tir máquina vir tual permite la migración de máquinas
virtuales en función del tipo de firmware (BIOS o EFI). Selecciona y establece como predeterminada la
generación de máquinas virtuales de Hyper-V adecuadamente. Para obtener más información, consulte el
artículo Conversión de una máquina virtual de VMware a Hyper-V en el tejido de VMM. Por ejemplo:
Las máquinas virtuales basadas en BIOS se migran a la máquina virtual de Hyper-V de primera generación.
Las máquinas virtuales basadas en EFI se migran a la máquina virtual de Hyper-V de segunda generación.
También hemos realizado mejoras en el proceso de conversión de máquinas virtuales de VMware, que ahora
realiza la conversión hasta un 50 % más rápido.
Mejora del rendimiento del actualizador de host
El actualizador de host de VMM se ha sometido a varias actualizaciones para mejorar el rendimiento.
Con estas actualizaciones, en escenarios donde una organización administra un gran número de hosts y
máquinas virtuales con puntos de control, podrá observar mejoras importantes y notables en el rendimiento
del trabajo.
En nuestro laboratorio, con instancias de VMM que administran 20 hosts, y cada host entre 45 y 100 máquinas
virtuales, hemos detectado una mejora del rendimiento hasta 10 veces superior.
Sesión de consola mejorada en Virtual Machine Manager
La capacidad de conexión de la consola en VMM proporciona una manera alternativa de conectarse a la VM a
través de un escritorio remoto. Este método resulta muy útil cuando la máquina virtual no tiene conectividad de
red o cunado quiere cambiar a una configuración de red que podría afectar a su conectividad. Actualmente, la
capacidad de conexión de la consola en Virtual Machine Manager solo admite una sesión básica, en la que texto
del Portapapeles solo se puede pegar a través de la opción de menú Escribir texto del Por tapapeles .
VMM admite una sesión de consola mejorada que permite las operaciones de Cor tar (Ctrl+X) , Copiar
(Ctrl+C) y Pegar (Ctrl+V) en el texto y en archivos ANSI disponibles en el Portapapeles. Como resultado, se
pueden usar los comandos Copiar y Pegar para texto y archivos desde y hacia la máquina virtual. Para obtener
más información, consulte el artículo Habilitación de la sesión de consola mejorada en VMM.
Almacenamiento
Mejoras de QoS de almacenamiento de Virtual Machine Manager
La calidad de servicio (QoS) de almacenamiento proporciona una manera de supervisar y administrar de forma
centralizada el rendimiento del almacenamiento para máquinas virtuales con Hyper-V y con los roles del
Servidor de archivos de escalabilidad horizontal. Esta característica mejora automáticamente la imparcialidad de
los recursos de almacenamiento entre varias máquinas virtuales con el mismo clúster. Además, permite
objetivos de rendimiento basados en directivas.
VMM admite las siguientes mejoras de QoS de almacenamiento:
Extensión de la compatibilidad de QoS de almacenamiento más allá de S2D: Ahora puede asignar
las directivas de QoS de almacenamiento para redes de área de almacenamiento (SAN). Para obtener más
información, consulte el artículo Administración de directivas QoS de almacenamiento para clústeres.
Compatibilidad con nubes privadas de VMM: Los inquilinos de la nube de VMM ahora pueden usar las
directivas de QoS de almacenamiento. Para obtener más información, consulte el artículo Crear una nube
privada.
Disponibilidad de las directivas de QoS de almacenamiento como plantillas: Puede establecer
directivas de QoS de almacenamiento a través de plantillas de máquina virtual. Para obtener más
información, consulte el artículo Agregar plantillas de VM a la biblioteca VMM.
Redes
Configuración de clústeres de invitado en las redes definidas por software mediante VMM
Con la llegada de las redes definidas por software en Windows Server 2016 y System Center 2016, la
configuración de clústeres invitados ha experimentado algunos cambios.
Con la introducción de las redes definidas por software (SDN), las máquinas virtuales que están conectadas a la
red virtual mediante SDN solo pueden usar la dirección IP que asigna la controladora de red a la comunicación.
El diseño de las redes definidas por software está inspirado en el diseño de redes de Azure y admite la
funcionalidad de dirección IP flotante mediante el equilibrador de carga de software (SLB), como las redes de
Azure.
VMM también admite la funcionalidad de dirección IP flotante mediante el equilibrador de carga de software en
los escenarios de SDN. VMM 1801 admite clústeres invitados a través de una IP virtual del equilibrador de carga
interno. El equilibrador de carga interno usa los puertos de sondeo que se crean en las máquinas virtuales del
clúster invitado para identificar el nodo activo. En un momento dado, solo el puerto de sondeo del nodo activo
responde al equilibrador de carga interno. A continuación, todo el tráfico dirigido a la dirección IP virtual se
enruta al nodo activo. Para obtener más información, consulte el artículo Configuración de clústeres invitados
en SDN mediante VMM.
Configuración de direcciones IP virtuales del SLB a través de plantillas de servicio de VMM
Las redes definidas por software en Windows 2016 pueden usar el equilibrio de carga de software para
distribuir uniformemente el tráfico de red entre las cargas de trabajo administradas por el proveedor de
servicios y los inquilinos. VMM 2016 actualmente admite la implementación de direcciones IP virtuales del
equilibrador de carga de software con PowerShell.
VMM admite la configuración de direcciones IP virtuales del equilibrador de carga de software al implementar
aplicaciones multinivel con las plantillas de servicio. Para obtener más información, consulte el artículo
Configuración de direcciones IP virtuales del equilibrador de carga interno a través de plantillas de servicio de
VMM.
Configuración de redes de máquina virtual cifradas a través de VMM
VMM admite el cifrado de redes de máquinas virtuales. Gracias a la nueva característica de redes cifradas, se
puede configurar fácilmente el cifrado de un extremo a otro en redes de máquinas virtuales mediante el uso de
la controladora de red. Este cifrado impide que el tráfico entre dos máquinas virtuales en la misma red y la
misma subred se lea y manipule.
El control del cifrado se encuentra en el nivel de subred. El cifrado puede habilitarse o deshabilitarse para cada
subred de la red de VM. Para obtener más información, consulte el artículo Configuración de redes cifradas de
redes definidas por software mediante VMM.
Seguridad
Compatibilidad con máquinas virtuales blindadas de Linux
Windows Server 2016 introdujo el concepto de máquina virtual blindada en las máquinas virtuales basadas en
el sistema operativo Windows. Las máquinas virtuales blindadas protegen frente a acciones de administrador
malintencionadas. Proporcionan protección cuando los datos de la máquina virtual están en reposo o cuando se
ejecuta software que no es de confianza en hosts de Hyper-V.
Con Windows Server 1709, Hyper-V presenta la compatibilidad para el aprovisionamiento de máquinas
virtuales blindadas con Linux. La misma compatibilidad se ha ampliado ahora a VMM. Para obtener más
información, consulte el artículo Creación de un disco de plantilla de máquina virtual blindada Linux.
Configuración del servicio de protección de host de reserva
El servicio de protección de host (HGS) proporciona servicios de atestación y protección de claves para ejecutar
máquinas virtuales blindadas en hosts de Hyper-V. Debe funcionar incluso en situaciones de desastre. Windows
Server 1709 agregó compatibilidad para el servicio de protección de host de reserva.
Mediante VMM se puede configurar un host protegido con un par principal y otro secundario de direcciones
URL de servicio de protección de host (un identificador URI de atestación y protección de claves). Esta
funcionalidad habilita escenarios como implementaciones de tejido protegido que abarcan dos centros de datos
para la recuperación ante desastres y un servicio de protección de host que se ejecuta como máquinas virtuales
blindadas.
Las direcciones URL del servicio de protección de host principal siempre se usan a favor de las direcciones URL
del servicio de protección de host secundario. Si se produce un error en el servicio de protección de host
principal tras el tiempo de espera adecuado y el número de reintentos, la operación se vuelve a intentar con el
servicio secundario. Las operaciones posteriores siempre favorecen al servicio principal. El servicio secundario
solo se usa cuando se produce un error en el principal. Para obtener más información, consulte el artículo
Configuración de direcciones URL de HGS de reserva en VMM.
Integración de Azure
Administración de suscripciones de Azure específicas de la región basadas en Azure Resource Manager
Actualmente, el complemento de Azure de VMM solo admite máquinas virtuales clásicas y regiones de Azure
globales.
VMM 1801 admite la administración de:
Máquinas virtuales basadas en Azure Resource Manager.
Autenticación basada en Azure Active Directory que se crea mediante el nuevo Azure Portal.
Suscripciones de Azure específicas de la región, es decir, regiones de Alemania, China y EE. UU. de
Government Azure.
Para obtener más información, consulte el artículo Administración de máquinas virtuales.
NOTE
Debe definir la configuración de DCB de forma coherente en todos los hosts y en la red de tejido (conmutadores). Un
valor de DCB mal configurado en cualquiera de los dispositivos host o de tejido es perjudicial para el rendimiento de S2D.
Para obtener más información, consulte la sección Definir la configuración de DCB en el clúster de S2D.
Redes
Mejoras en la experiencia del usuario en redes lógicas
En VMM 2019 UR1, la experiencia del usuario se ha mejorado para el proceso de creación de redes lógicas. Las
redes lógicas ahora se agrupan por la descripción del producto en función de los casos de uso. Además, se
proporciona una ilustración para cada tipo de red lógica y un gráfico de dependencias. Para obtener más
información, consulte el artículo Configuración de redes lógicas en el tejido de VMM 2019 UR1.
Opciones adicionales para habilitar la virtualización anidada
Ahora puede habilitar la virtualización anidada al crear una nueva máquina virtual e implementar máquinas
virtuales a través de plantillas de máquina virtual y plantillas de servicio. En versiones anteriores, la
virtualización anidada solo se admitía en máquinas virtuales implementadas. Obtenga más información sobre la
habilitación de la virtualización anidada.
Actualizaciones de los cmdlets de PowerShell
VMM 2019 UR1 incluye las siguientes actualizaciones de cmdlet para las características respectivas:
1. Definición de la configuración de DCB en clústeres S2D
Nuevo cmdlet New-SCDCBSettings : configura los valores de DCB en el clúster de S2D
administrado por VMM.
Nuevo parámetro [-DCBSettings] : especifica la configuración de DCB configurada en el clúster y
se incluye en los cmdlets Install-SCVMHostCluster , Set-SCVMHostCluster y Set-
SCStorageFileSer ver .
2. Opciones adicionales para habilitar la virtualización anidada
Nuevo parámetro [-EnableNestedVir tualization] : habilita la virtualización anidada y se incluye en
el cmdlet Set-SCComputerTierTemplate .
Para obtener más información sobre estas actualizaciones, vea los artículos sobre PowerShell para VMM.
NOTE
Actualmente no se admite la administración de clústeres extendidos de Azure Stack HCl en VMM.
En este artículo se detallan las nuevas características que se admiten en System Center 1807 Virtual Machine
Manager (VMM).
NOTE
Para ver los errores corregidos y las instrucciones de instalación para VMM 1807, consulte el artículo de KB 4135364.
Almacenamiento
Admite la selección de CSV para colocar un disco duro virtual nuevo
VMM 1807 permite seleccionar un volumen compartido de clúster (CSV) para colocar un disco de disco duro
virtual (VHD) nuevo.
En versiones anteriores de VMM, un disco duro virtual nuevo en una máquina virtual (VM), de manera
predeterminada, se coloca en el mismo CSV donde se colocan los discos duros virtuales anteriores asociados
con la máquina virtual. No había la opción de elegir un CSV o una carpeta diferente. En caso de cualquier
problema relacionado con el CSV, como que el almacenamiento estuviera lleno o hubiese sobrecompromiso, los
usuarios tenían que migrar el disco duro virtual solo después de implementarlo.
Con VMM 1807, ahora puede elegir cualquier ubicación para colocar el disco nuevo. Puede administrar este
disco fácilmente, según la disponibilidad de almacenamiento de los CSV. Más información.
Redes
Visualización de la información de LLDP para dispositivos de red
VMM 1807 admite el protocolo de detección de nivel de vínculo (LLDP). Ahora puede ver información sobre las
propiedades de los dispositivos de red y las funcionalidades de los hosts desde VMM. El sistema operativo host
debe ser Windows 2016 o una versión superior.
Las características DataCenterBridging y DataCenterBridging-LLDP-Tools se habilitaron en los hosts para
capturar las propiedades del protocolo LLDP. Más información.
Conversión del conmutador SET al conmutador lógico
VMM 1807 permite convertir un conmutador Switch Embedded Teaming (SET) al conmutador lógico mediante
el uso de la consola VMM. En versiones anteriores, esta característica solo se admite a través del script de
PowerShell. Más información.
Administración de hosts de VMware
VMM 1807 es compatibles con servidores de VMware ESXi v6.5 en el tejido de VMM. Esta compatibilidad facilita
a los administradores tener una flexibilidad adicional para administrar los diversos hipervisores en uso. Más
información sobre los detalles adicionales de las versiones compatibles de VMware Server.
Compatibilidad con la actualización del clúster de S2D
VMM 1807 admite la actualización de un clúster o un host de S2D. Puede actualizar hosts individuales de S2D o
los clústeres en las líneas base configuradas en Windows Server Update Services (WSUS). Más información.
Otros
Compatibilidad con SQL 2017
VMM 1807 es compatible con SQL 2017. Puede actualizar SQL 2016 a 2017.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se detallan las nuevas características que se admiten en System Center 1801 Virtual Machine
Manager (VMM).
En este artículo se detallan las nuevas características que se admiten en System Center 2016 Virtual Machine
Manager (VMM).
Proceso
Virtualización anidada
WMM admite la característica de virtualización anidada que permite ejecutar Hyper-V en una máquina virtual
de Hyper-V. En otras palabras, con la virtualización anidada, se puede virtualizar el mismo host de Hyper-V. La
virtualización anidada se puede habilitar fuera de banda mediante la configuración de host de Hyper-V y
PowerShell.
Puede aprovechar esta funcionalidad para reducir los gastos de infraestructura en los escenarios de desarrollo,
prueba, demostración y aprendizaje. Esta característica también permite usar productos de administración de
virtualización de terceros con el hipervisor de Microsoft.
Puede habilitar o deshabilitar la característica de virtualización anidada con SCVMM 1801. Puede configurar la
máquina virtual como un host en VMM y realizar operaciones de host de VMM en esta máquina virtual. Por
ejemplo, la optimización dinámica de VMM tiene en cuenta un host de máquina virtual anidada para la
ubicación. Más información.
Migración de máquina virtual VMware (máquina virtual basada en firmware EFI ) a la máquina virtual de Hyper-
V
La migración actual de VMM en máquinas virtuales VMware a Hyper-V solo admite la migración de máquinas
virtuales basadas en BIOS.
La versión VMM 1801 permite la migración de máquinas virtuales de VMware basadas en EFI a máquinas
virtuales de Hyper-V de segunda generación. Las máquinas virtuales VMware que se migran a la plataforma de
Microsoft Hyper-V pueden aprovechar las características de la segunda generación de Hyper-V.
Como parte de esta versión, el Asistente para conver tir máquina vir tual permite la migración de máquinas
virtuales en función del tipo de firmware (BIOS o EFI), selecciona y predetermina la generación de máquinas
virtuales de Hyper-V adecuadamente. Más información.
1. Las máquinas virtuales basadas en BIOS se migran a la máquina virtual de Hyper-V de primera generación.
2. Las máquinas virtuales basadas en EFI se migran a la máquina virtual de Hyper-V de segunda generación.
También hemos realizado mejoras en el proceso de conversión de máquinas virtuales VMWare que realiza la
conversión hasta un 50 % más rápido.
Mejora del rendimiento del actualizador de host
El actualizador de host de VMM 1801 se ha sometido a algunas actualizaciones para mejorar el rendimiento.
Con estas actualizaciones, en escenarios donde la organización administra un gran número de hosts y máquinas
virtuales con puntos de control, podrá observar mejoras importantes y notables en el rendimiento del trabajo.
En nuestro laboratorio, con instancias de VMM que administran 20 hosts y cada host administra entre 45 y 100
máquinas virtuales, hemos detectado una mejora del rendimiento hasta 10 veces superior.
Sesión de consola mejorada en Virtual Machine Manager
La conexión de la consola de VMM proporciona una alternativa de conectar el escritorio remoto a la máquina
virtual. Esto es muy útil cuando la máquina virtual no tiene conectividad de red o desea cambiar la
configuración de red que podría afectar a su conectividad. Actualmente, la conexión de la consola actual de
VMM solo admite una sesión básica, en la que texto del Portapapeles únicamente se puede pegar mediante la
opción de menú Escribir texto del Portapapeles.
VMM 1801 admite una sesión de consola mejorada que permite las operaciones de Cor tar (Ctrl+X) , Copiar
(Ctrl+C) y Pegar (Ctrl+V) en el texto y archivos ANSI disponibles en el Portapapeles, con lo que se pueden
usar los comandos de copiar y pegar para texto y archivos desde y hacia la máquina virtual. Más información.
Almacenamiento
Mejoras de QoS de almacenamiento de Virtual Machine Manager
La calidad de servicio (SQoS) de almacenamiento proporciona una manera de supervisar y administrar de
forma centralizada el rendimiento del almacenamiento para máquinas virtuales con Hyper-V y los roles del
Servidor de archivos de escalabilidad horizontal (SOFS). La característica mejora automáticamente la
imparcialidad de los recursos de almacenamiento entre varias máquinas virtuales con el mismo clúster y
permite objetivos de rendimiento basados en directivas.
VMM 1801 admite las siguientes mejoras en SQoS:
Extensión de soporte técnico de SQoS después de S2D: ahora puede asignar las directivas de QoS de
almacenamiento para redes de área de almacenamiento (SAN). Más información.
Compatibilidad con la nube privada de VMM: las directivas de QoS de almacenamiento ahora pueden
utilizarlas los inquilinos de nube de VMM. Más información.
Disponibilidad de las directivas de QoS de almacenamiento como plantillas: puede establecer directivas de
QoS de almacenamiento mediante plantillas de máquinas virtuales. Más información.
Redes
Configuración de clústeres de invitado en las redes definidas por software mediante VMM
Con la llegada de las redes definidas por software en Windows Server 2016 y System Center 2016, la
configuración de clústeres invitados ha experimentado algunos cambios.
Con la introducción de las redes definidas por software (SDN), las máquinas virtuales que están conectadas a la
red virtual mediante SDN solo pueden usar la dirección IP que asigna la controladora de red a la comunicación.
El diseño de las redes definidas por software está inspirado por el diseño de redes de Azure, que admite la
funcionalidad de dirección IP flotante mediante el equilibrador de carga de software, como las redes de Azure.
La versión VMM 1801 también admite la funcionalidad de dirección IP flotante mediante el equilibrador de
carga de software (SLB) en los escenarios SDN. VMM 1801 admite clústeres invitados a través de una IP virtual
del equilibrador de carga interno. El equilibrador de carga interno usa los puertos de sondeo que se crean en las
máquinas virtuales del clúster invitado para identificar el nodo activo. En un momento dado, el puerto de
sondeo del nodo activo responde al equilibrador de carga interno y enruta todo el tráfico dirigido a la dirección
IP virtual en el nodo activo. . Más información.
Configuración de direcciones IP virtuales del equilibrador de carga interno a través de plantillas de servicio
de VMM
Las redes definidas por software en Windows 2016 pueden utilizar el equilibrio de carga de software (SLB) para
distribuir uniformemente el tráfico de red entre las cargas de trabajo administradas por el proveedor de
servicios y los inquilinos. VMM 2016 actualmente admite la implementación de direcciones IP virtuales del
equilibrio de carga de software con PowerShell.
Con VMM 1801, VMM admite la configuración de direcciones IP virtuales del equilibrio de carga de software al
implementar aplicaciones multinivel mediante plantillas de servicio. Más información.
Configuración de redes de máquina virtual cifradas a través de VMM
VMM 1801 admite el cifrado de redes de máquinas virtuales. Mediante la nueva característica de redes cifradas,
se puede configurar fácilmente el cifrado de un extremo a otro en redes de máquinas virtuales mediante el uso
de la controladora de red. Este cifrado impide que el tráfico entre dos máquinas virtuales en la misma red y la
misma subred se lea y manipule.
El control del cifrado se encuentra en el nivel de subred y el cifrado puede habilitarse o deshabilitarse para cada
subred de la red de máquina virtual. Más información.
Seguridad
Soporte técnico para la máquina virtual blindada Linux
Windows Server 2016 introdujo el concepto de máquina virtual blindada en las máquinas virtuales basadas en
el sistema operativo Windows. Las máquinas virtuales blindadas ofrecen protección frente a acciones de
administrador malintencionadas, tanto cuando los datos de las máquinas virtuales están en reposo como en el
software que no es de confianza que se ejecuta en los hosts de Hyper-V.
Con Windows Server 1709, Hyper-V presenta la compatibilidad para el aprovisionamiento de máquinas
virtuales blindadas Linux y la misma se ha ampliado a VMM 1801. Más información.
Configuración del servicio de protección de host de reserva
Al centrarse en proporcionar servicios de protección de claves y de atestación para ejecutar máquinas virtuales
blindadas en hosts de Hyper-V, el servicio de protección de host debe funcionar incluso en situaciones de
desastre. Windows Server 1709 agregó compatibilidad para el servicio de protección de host de reserva.
Con VMM 1801, se puede configurar un host protegido con un par principal y otro secundario de direcciones
URL de servicio de protección de host (un URI de atestación y protección de claves). Esta funcionalidad habilita
escenarios como implementaciones de tejido protegido que abarcan dos centros de datos para la recuperación
ante desastres, un servicio de protección de host que se ejecuta como máquinas virtuales blindadas, etc.
Las direcciones URL del servicio de protección de host principal siempre se usarán a favor del secundario. Si se
produce un error en el servicio de protección de host principal tras el tiempo de espera adecuado y el número
de reintentos, la operación se volverá a intentar con el servicio secundario. Las operaciones posteriores siempre
favorecerán al servicio principal; el servicio secundario solo se usará cuando se produce un error en el principal.
Más información.
Integración de Azure
Administración de suscripciones de Azure específicas de la región basadas en Azure Resource Manager
Actualmente, el complemento de Azure de VMM solo admite máquinas virtuales clásicas y regiones de Azure
públicas.
VMM 1801 admite la administración de máquinas virtuales basadas en Azure Resource Manager, la
autenticación de Azure Active Directory (AD) que se crea mediante el nuevo Azure Portal y las suscripciones de
Azure específicas de la región (es decir, regiones de Alemania, China, US Government Azure). Más información.
Proceso
Administración del ciclo de vida completo de máquinas virtuales y hosts basados en Nano Server
En el tejido de VMM se pueden aprovisionar y administrar máquinas virtuales y hosts basados en Nano Server.
Más información.
Actualización gradual de clústeres de hosts de Windows Server 2012 R2
Ahora, los clústeres de Hyper-V y de Servidor de archivos de escalabilidad horizontal (SOFS) en el tejido de
VMM se pueden actualizar de Windows Server 2012 R2 a Windows Server 2016 sin tiempo de inactividad que
afecte a las cargas de trabajo del host. VMM se encarga del flujo de trabajo completo. Así, purga el nodo, lo quita
del clúster, reinstala el sistema operativo y vuelve a agregar el nodo al clúster. Obtenga más información sobre
cómo realizar actualizaciones graduales de clústeres de Hyper-V y clústeres de SOFS.
Creación de clústeres de Hyper-V y SOFS
Existe un flujo de trabajo simplificado para crear clústeres de Hyper-V y SOFS:
Implementación sin sistema operativo de clústeres de hosts de Hyper-V: la implementación de
un clúster de hosts de Hyper-V desde equipos sin sistema operativo ahora se realiza en un solo paso. Más
información
Adición de un nodo sin sistema operativo a un clúster de hosts de Hyper-V o un clúster
SOFS existente: ahora se puede agregar directamente un equipo sin sistema operativo a un clúster de
Hyper-V o SOFS existente.
Nuevas operaciones para máquinas virtuales en ejecución
Ahora es posible aumentar o disminuir la memoria estática y agregar o quitar un adaptador de red virtual de
máquinas virtuales en ejecución. Más información.
Puntos de control de producción
Ahora se pueden crear puntos de control de producción para las máquinas virtuales. Estos puntos de control se
basan en el Servicio de instantáneas de volumen (VSS) y son coherentes con la aplicación (si se comparan con
los puntos de control estándar basados en la tecnología de estado guardado, que no lo son). Más información.
Server App-V
La aplicación Server App-V de las plantillas ha dejado de estar disponible en VMM 2016. Por tanto, no se
pueden crear plantillas o implementar servicios nuevos con la aplicación Server App-V. Si actualiza desde VMM
2012 R2 y tiene un servicio con la aplicación Server App-V, la implementación existente seguirá funcionando,
pero, tras la actualización, no se podrá escalar horizontalmente el nivel con la aplicación Server App-V. Puede
escalar horizontalmente otros niveles.
NOTE
La siguiente característica está disponible en 2016 UR9.
Almacenamiento
Implementación y administración de clústeres de almacenamiento con Espacios de almacenamiento directo
(S2D)
Espacios de almacenamiento directo en Windows Server 2016 permite crear sistemas de almacenamiento de
alta disponibilidad en Windows Server. Puede usar VMM para crear un Servidor de archivos de escalabilidad
horizontal con Windows Server 2016 y configurarlo con Espacios de almacenamiento directo. Tras configurarlo,
puede crear bloques de almacenamiento y recursos compartidos de archivos en ese servidor. Más información.
Réplica de almacenamiento
En VMM 2016, puede usar la réplica de almacenamiento de Windows para proteger los datos de un volumen
por medio de la réplica sincrónica entre los volúmenes principal y secundario (recuperación). Puede
implementar los volúmenes principal y secundario en un único clúster, en dos clústeres diferentes o en dos
servidores independientes. Use PowerShell para configurar la réplica de almacenamiento y ejecutar la
conmutación por error. Más información
Calidad de servicio (QoS ) del almacenamiento
Puede configurar QoS para almacenamiento a fin de asegurarse de que los discos, máquinas virtuales,
aplicaciones e inquilinos no caen por debajo de una determinada calidad de recursos cuando los hosts y el
almacenamiento estén sobrecargados. Puede configurar QoS para almacenamiento en el tejido de VMM.
Redes
Redes definidas por software (SDN )
En VMM 2016, puede implementar toda la pila de SDN con plantillas de servicio VMM.
Puede implementar y administrar una Controladora de red de varios nodos en una subred. Después de
implementar e incorporar la Controladora de red, puede especificar que los componentes del tejido deben
administrarse con SDN para proporcionar conectividad a las máquinas virtuales de inquilinos y para definir
directivas.
Puede implementar y configurar un equilibrador de carga de software para distribuir el tráfico de redes
administradas por la Controladora de red. El equilibrador de carga de software se puede usar para NAT de
entrada y salida.
Puede implementar y configurar un grupo de servidores de puerta de enlace de Windows Server con
redundancia M+N. Después de implementar la puerta de enlace, conecte una red de inquilino a la red de un
proveedor de hospedaje o a su propia red de centro de datos remoto a través de S2S GRE, IPSec S2S o L3.
Aislamiento y filtrado del tráfico de red
Puede limitar y separar el tráfico de red especificando listas de control de acceso de puertos en redes de
máquinas virtuales, subredes virtuales, interfaces de red o en una marca de VMM completa por medio de la
Controladora de red y PowerShell. Más información.
Nomenclatura de los adaptadores de red virtuales
Al implementar una máquina virtual, es posible que quiera ejecutar un script posterior a la implementación en
el sistema operativo invitado para configurar adaptadores de red virtuales. Antes esto resultaba complicado, ya
que no existía ninguna forma de distinguir con facilidad los distintos adaptadores de red virtuales durante la
implementación. Ahora, en las máquinas virtuales de generación 2 implementadas en hosts de Hyper-V con
Windows Server 2016, puede poner nombre al adaptador de red virtual en una plantilla de máquina virtual.
Esto es similar al uso de CDN (Consistent Device Naming) en los adaptadores de red físicos.
Administración autoservicio de SDN con Windows Azure Pack (WAP)
Puede incluir capacidades de autoservicio para el tejido administrado por la Controladora de red. Esto incluye
crear y administrar redes de máquinas virtuales, configurar conexiones S2S IPSec y configurar opciones de NAT
para máquinas virtuales de inquilino e infraestructura en su centro de datos.
Implementación de conmutador lógico en varios hosts
La interfaz para crear un conmutador lógico se ha optimizado para que resulte más fácil seleccionar la
configuración.
Se puede usar Hyper-v directamente para configurar un conmutador virtual estándar en un host
administrado y, luego, usar VMM para convertir ese conmutador virtual estándar en un conmutador lógico
de VMM para, posteriormente, aplicarlo a más hosts.
Si, al aplicar un conmutador lógico a un host concreto, la operación no se realiza correctamente por
completo, esta se revertirá y la configuración del host permanecerá inalterada. Al haber mejorado el registro,
es más fácil diagnosticar errores.
Seguridad
Implementación del host protegida
Ahora puede aprovisionar y administrar hosts protegidos y máquinas virtuales blindadas en el tejido de VMM
para ofrecer protección frente a administradores de hosts y software malintencionados.
Puede administrar hosts protegidos en el tejido de VMM. Los hosts protegidos se configuran para
comunicarse con servidores HGS, y se pueden especificar directivas de integridad de código que restrinjan el
software que se puede ejecutar en modo kernel en el host.
Puede convertir máquinas virtuales existentes en máquinas virtuales blindadas e implementar nuevas
máquinas virtuales blindadas.
Pasos siguientes
Know the VMM system requirements (Conocer los requisitos del sistema de VMM)
Planeamiento de la instalación de VMM
Versiones de compilación de System Center Virtual
Machine Manager
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo determinar el número de versión actual de Microsoft System Center Virtual
Machine Manager y el paquete acumulativo de actualizaciones correspondiente. Cada versión de paquete
acumulativo de actualizaciones (UR) tiene un vínculo a un artículo de soporte técnico que describe los cambios
de UR, así como vínculos a las descargas de paquete.
NOTE
Todos los paquetes de actualizaciones de System Center Virtual Machine Manager son acumulativos. Esto significa que no
es necesario aplicarlos en orden; se puede aplicar el más reciente. Si ha implementado System Center 2016 Virtual
Machine Manager y no ha aplicado nunca ningún paquete de actualizaciones, puede seguir con la instalación del más
reciente que haya disponible.
Versiones de compilación
En la tabla siguiente se enumeran las versiones de compilación para Virtual Machine Manager 2019.
En la tabla siguiente se enumeran las versiones de compilación para Virtual Machine Manager 2016.
En la tabla siguiente se enumeran las versiones de compilación para Virtual Machine Manager 1801.
En la tabla siguiente se enumeran las versiones de compilación para Virtual Machine Manager 1807.
Pasos siguientes
Novedades de VMM
Notas de la versión de System Center Virtual
Machine Manager
19/08/2021 • 25 minutes to read
Este artículo contiene las notas de la versión de System Center 2019 Virtual Machine Manager (VMM).
Este comando agregará el usuario del servicio a la lista de usuarios permitidos, que pueden acceder al registro
de eventos operativos o de Virtual Machine Manager-Server.
#
Proporcione las credenciales de administrador de NC.
$cred = Get-Credential
#
Identifique la red virtual que contiene la subred.
#
Identifique la subred para la que se debe quitar la ACL.
#
Actualizar
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Este artículo contiene las notas de la versión de System Center 1807 Virtual Machine Manager (VMM).
#
Proporcione las credenciales de administrador de NC.
$cred = Get-Credential
#
Identifique la red virtual que contiene la subred.
#
Identifique la subred para la que se debe quitar la ACL.
#
Actualizar
Este artículo contiene las notas de la versión de System Center 2016 Virtual Machine Manager (VMM).
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
#
Proporcione las credenciales de administrador de NC.
$cred = Get-Credential
#
Identifique la red virtual que contiene la subred.
#
Identifique la subred para la que se debe quitar la ACL.
#
Actualizar
New-NetworkControllerVirtualNetwork -ResourceId "Fabrikam_VNet1" -ConnectionUri $uri –Properties
$vnet.Properties -Credential $cred
Implementación de VMM
Es posible que se produzca un error en la importación de la consola de administración de VMM
Descripción : Si importa el complemento de consola de administración de VMM como usuario que no es
administrador, la consola se bloqueará. Esto se produce porque el complemento de la consola se almacena en la
ubicación "C:\Archivos de programa", y solo los administradores tienen acceso a esta ubicación. Solución
alternativa : almacene el complemento de consola en una ubicación que no necesite acceso de administrador y
después impórtelo.
Storage
Podría producirse un error en la promoción de una máquina virtual para alta disponibilidad
Descripción : Cree una máquina virtual en el almacenamiento local, iníciela y cree puntos de control. Si intenta
migrar y promover la máquina virtual a alta disponibilidad en un clúster, es posible que se produzca un error en
la migración. Solución alternativa : Antes de ejecutar la migración, elimine el punto de control en ejecución y
detenga la máquina virtual.
Posible error al migrar una máquina virtual desde CSV al almacenamiento LUN
Descripción : Una máquina virtual de alta disponibilidad se crea con almacenamiento CSV, se agrega un LUN
como almacenamiento disponible en el clúster y se migra la máquina virtual desde CSV al LUN. Si el
almacenamiento LUN y la máquina virtual están en el mismo nodo, la migración se realizará correctamente. Si
no, se producirá un error en la migración. Solución alternativa : si la máquina virtual no se encuentra en el
nodo del clúster en el que está registrado el almacenamiento LUN, muévala ahí. Después, migre la máquina
virtual al almacenamiento LUN.
La capacidad de las matrices de NAS se muestra como 0 GB.
Descripción : VMM muestra Capacidad total y Capacidad disponible como 0 GB para los recursos
compartidos de archivos existentes en las matrices de NAS. Solución alternativa : Ninguna.
Redes
Las redes lógicas administradas por el controlador de red SDN no pueden usar direcciones IP dinámicas
Descripción : no se admite el uso de direcciones IP dinámicas para las máquinas virtuales conectadas a redes
lógicas administradas por el controlador de red SDN en el tejido de VMM. Solución alternativa : Configure
direcciones IP estáticas.
El conmutador SET se muestra como "Interno" en VMM
Descripción : si se implementa un conmutador SET fuera de la consola de VMM y después se empieza a
administrar con el tejido de VMM, el tipo de conmutador se mostrará como "interno". Esto no afecta a la
funcionalidad del conmutador. Solución alternativa : Ninguno
El conmutador agrupado LACP no funciona después de la actualización
Descripción : un equipo LACP configurado en un conmutador lógico no funciona después de actualizar a VMM
2016. Solución alternativa : vuelva a implementar el conmutador, o bien quite y vuelva a agregar un
adaptador de red físico al equipo.
La conectividad del adaptador de back-end para SLB MUX no funciona según lo previsto
Descripción : Es posible que la conectividad del adaptador de back-end de SLB MUX no funcione como se
esperaba después de la migración de la máquina virtual. Solución alternativa : reduzca o escale
horizontalmente la máquina virtual MUX de SLB como solución alternativa.
No se admiten los certificados de entidad de certificación basados en CNG
Descripción : si se usan certificados de una entidad de certificación, no se pueden usar certificados CNG para la
implementación de SDN en VMM. Solución alternativa : use otros formatos de certificado.
Un adaptador virtual conectado a una red administrada por la controladora de red debe reiniciarse si se
cambia la dirección IP
Descripción : si hay un cambio en la dirección IP asignada en cualquiera de los adaptadores de red virtual
conectados a una red de máquinas virtuales administrada por la controladora de red, tendrá que reiniciar
manualmente los adaptadores asociados. Solución alternativa : Ninguna.
No se admite IPv6 para una infraestructura de red administrada por la controladora de red
Descripción : IPv6 no es compatible con la controladora de red en el tejido de VMM. Solución alternativa:
Use IPv4.
Problemas de conectividad para las direcciones SLB.
Descripción : para las direcciones IP de front-end y back-end asignadas a máquinas virtuales MUX de SLB, es
posible que se experimenten problemas de conectividad si se selecciona Registrar la dirección de esta
conexión en DNS . Solución alternativa : desactive la opción para evitar problemas.
El trabajo Set-SCVMSubnet -RemovePortACL se completa en VMM sin quitar la asociación portACL del
objeto VMSubnet de NC.
Descripción : El trabajo Set-SCVMSubnet -RemovePortACL se completa en VMM sin quitar la asociación
portACL del objeto VMSubnet de NC, debido a que se produce un error en el trabajo Remove-PortACL con la
excepción de NC que todavía está en uso.
Solución alternativa : Quite VMSubnet de VMM y luego quite Port-ACL.
Import-Module NetworkController
#
Reemplace el URI de la controladora de red por la IP de REST o FQDN.
#
Proporcione las credenciales de administrador de NC.
$cred = Get-Credential
#
Identifique la red virtual que contiene la subred.
$vnet = Get-NetworkControllerVirtualNetwork -ConnectionUri $uri -ResourceId "Fabrikam_VNet1" -Credential
$cred
#
Identifique la subred para la que se debe quitar la ACL.
#
Actualizar
Administración de clústeres
La actualización del nivel funcional de un clúster no actualiza la información del servidor de archivos
Descripción : Si actualiza el nivel funcional para un clúster que incluye un servidor de archivos, la información
de plataforma no se actualiza automáticamente en la base de datos de VMM. Solución alternativa : Después
de actualizar el nivel funcional del clúster, actualice el proveedor de almacenamiento para el servidor de
archivos.
Se produce un error al actualizar un clúster de Espacios de almacenamiento directo en VMM
Descripción : La actualización de un clúster de Espacios de almacenamiento directo (hiperconvergido o
desagregado) mediante VMM no se admite y es posible que produzca pérdida de datos. Solución alternativa :
actualice los clústeres fuera de VMM con la actualización compatible con clústeres (CAU) de Windows.
La actualización gradual de clúster de un clúster de host de Windows Server 2012 R2 a un clúster de host de
Windows Server 2016 Nano Server producirá un error
Descripción : al intentar actualizar los nodos de host de un clúster de Windows Server 2012 R2 a Windows
Server 2016 Nano Server mediante la funcionalidad de actualización gradual de clúster en VMM, se producirá el
error 20406: "VMM no pudo enumerar las instancias de la clase MSFT_StorageNodeToDisk en el servidor . Error
MI RESULT 7 No se admite la operación solicitada.: Solución alternativa : Actualice manualmente el clúster de
host de Windows Server 2012 R2 a Nano fuera de VMM. Cabe decir que la actualización gradual desde
Windows Server 2012 R2 a Windows Server 2016 (servidor completo) funciona perfectamente. Este problema
solo ocurre con Nano.
Agregar un clúster en la consola de administración de VMM podría producir un error
Descripción : cuando se agrega un clúster como un recurso en la consola de administración de VMM, es posible
que se reciba un error que indica que "No se detectaron equipos según las entradas". Solución alternativa :
haga clic en Aceptar y cierre el cuadro de diálogo del error. Después, intente volver a agregar el clúster.
Una actualización gradual de clúster no realiza la migración en vivo de las máquinas virtuales que no son de
alta disponibilidad
Descripción : cuando se ejecuta una actualización gradual de clústeres de Windows Server 2012 R2 a Windows
Server 2016 mediante VMM, no se realiza la migración en vivo de las máquinas virtuales que no son de alta
disponibilidad. Se mueven a un estado guardado. Solución alternativa : puede hacer todas las máquinas
virtuales del clúster de alta disponibilidad antes de la actualización, o bien realizar una migración en vivo
manual de máquinas virtuales concretas.
Es necesario realizar pasos manuales para agregar un host basado en Nano Server que está en un dominio
que no es de confianza
Descripción : no se puede agregar un host basado en Nano Server que está en un dominio que no es de
confianza. Solución alternativa: Realice estos pasos en el host y, después, agréguelo al tejido de VMM como
un host de confianza.
1. Habilitar WINRM a través de HTTPS:
New-Item -Path WSMan:\LocalHost\Listener -Transport HTTPS -Address * -CertificateThumbPrint
$cert.Thumbprint –Force
2. Cree una excepción de firewall en el host, para permitir WINRM sobre HTTPS:
New-NetFirewallRule -DisplayName 'Windows Remote Management (HTTPS-In)' -Name 'Windows Remote
Management (HTTPS-In)' -Profile Any -LocalPort 5986 -Protocol TCP
No se pueden agregar hosts basados en Nano Server ubicados en una red perimetral
Descripción: Se produce un error al intentar agregar un host basado en Nano Server ubicado en una red
perimetral con el Asistente para agregar recursos. Solución alternativa: Realice estos pasos en el host y,
después, agréguelo al tejido de VMM como un host que no es de confianza.
1. Habilitar WINRM a través de HTTPS en el host:
New-Item -Path WSMan:\LocalHost\Listener -Transport HTTPS -Address * -CertificateThumbPrint
$cert.Thumbprint –Force
2. Cree una excepción de firewall en el host, para permitir WINRM sobre HTTPS:
New-NetFirewallRule -DisplayName 'Windows Remote Management (HTTPS-In)' -Name 'Windows Remote
Management (HTTPS-In)' -Profile Any -LocalPort 5986 -Protocol TCP
Es posible que se produzca un error en la implementación sin sistema operativo de hosts durante una
actualización de alta disponibilidad
Descripción : Después de una actualización de alta disponibilidad a VMM 2016, es posible que VMM actualice
incorrectamente la clave del Registro de Servicios de implementación de Windows (WDS),
HKLM\SYSTEM\CCS\SERVICES\WDSSERVER\PROVIDER\WDSPXE\PROVIDES\VMMOSDPROVIDER, a
"HOST/VIRT-VMM-1" en lugar de "SCVMM/VIRT-VMM-1". Esto provocará errores en la implementación sin
sistema operativo. Solución alternativa : Cambie manualmente la entrada del Registro de
HKLM\SYSTEM\CCS\SERVICES\WDSSERVER\PROVIDER\WDSPXE\PROVIDES\VMMOSDPROVIDER a
"SCVMM/VIRT-VMM-1".
Error de coincidencia del estado de agente de host después de la actualización
Descripción : Cuando VMM actualiza el agente de host, genera un nuevo certificado para el host. Debido a esta
actualización, el certificado de servidor de la controladora de red y el certificado de host no coinciden. Solución
alternativa : Repare el host en la página Estado del host .
Se produce un error en la migración de SAN en un host basado en Nano Server
Descripción: Si realiza una migración de SAN entre dos hosts independientes basados en Nano Server, se
genera un error. Solución alternativa : Instale el paquete acumulativo de actualizaciones de VMM más reciente
(el problema se corrigió en el paquete acumulativo de actualizaciones 2)
No se puede crear una plantilla de máquina virtual desde una máquina virtual basada en Nano Server.
Descripción : Cuando se intenta crear una plantilla de máquina virtual a partir de una máquina virtual basada
en Nano Server, se produce el error 2903: "VMM no encontró el archivo o carpeta especificado '' en el servidor
''''. Este archivo o carpeta puede ser necesario como parte de otro objeto." Solución alternativa: Cree una
plantilla de máquina virtual desde cero usando un disco duro virtual de Nano Server.
Las implementaciones de servicio de plantillas de servicio pueden producir un error en un sistema operativo
invitado basado en Nano Server o Core.
Descripción : Al seleccionar roles y características para una plantilla de servicio, el perfil de sistema operativo
invitado no distingue entre Core, Nano Server y Desktop. Si selecciona roles y características (por ejemplo,
Experiencia de escritorio u otras características relacionadas con la interfaz gráfica de usuario) que no son
aplicables a un sistema operativo invitado basado en Core o Nano Server, pueden producirse errores de
implementación. Solución alternativa : No incluya estos roles y características en la plantilla de servicio.
VMM 2016 no actualiza los agentes invitados de VMM después de una actualización
Descripción : Cuando se actualiza VMM a 2016 con implementaciones de servicio existentes y, luego, se intenta
realizar el mantenimiento de esos servicios, los agentes invitados de VMM 2016 no se actualizan en las
máquinas virtuales que formaban parte de la implementación del servicio. Esto no afecta a la funcionalidad.
Solución alternativa : Instale el agente invitado de VMM 2016 manualmente.
Se produce un error en la máquina virtual basada en Nano Server al conectarse a un dominio
Descripción : Durante la implementación de una máquina virtual de Nano Server, si intenta unirla a un dominio
mediante la especificación de la información de la unión de dominio en la página Configuración del sistema
operativo del asistente de implementación de máquinas virtuales, VMM implementa la máquina virtual pero
no la agrega al dominio especificado. Solución alternativa: una vez implementada la máquina virtual, únala al
dominio manualmente. Más información.
Error al iniciar una máquina virtual con el orden de inicio
Descripción : Windows Server 2016 incluye la característica de orden de inicio de máquina virtual que define el
orden en el que se inician las máquinas virtuales dependientes. Esta funcionalidad no está disponible en VMM,
pero si ha configurado la característica fuera de VMM, VMM entiende el orden en el que se iniciarán las
máquinas virtuales. Pero VMM produce un error falso positivo (12711): "VMM no puede completar la operación
de WMI en el servidor a causa de un error: [MSCluster_Nombre.Grupo_de_recursos=] El grupo o recurso no
está en el estado apropiado para realizar la operación solicitada. Solución alternativa : Ignore el error. Las
máquinas virtuales se iniciarán en el orden correcto.
Integración
La integración de SQL Server Analysis Services (SSAS) no funciona en
VMM y el paquete acumulativo de actualizaciones 1 de Operations
Manager.
Descripción : Si está ejecutando el paquete acumulativo de actualizaciones 1, no se puede configurar SSAS para
SQL Server. Solución alternativa: Descargue los paquetes acumulativos de actualizaciones más recientes. El
problema se corrigió en el paquete acumulativo de actualizaciones 2.
Pasos siguientes
Novedades de Virtual Machine Manager
Configuración de la administración de telemetría en
VMM
21/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se ofrece información sobre cómo activar y desactivar la configuración de telemetría en System
Center - Virtual Machine Manager (VMM).
NOTE
Microsoft no recopila ningún dato personal de los clientes. Solo prestamos atención a eventos que le ayuden a realizar
diagnósticos en VMM. Más información
Aparece la página con el mensaje ¿Desea enviar datos de uso y diagnóstico a Microsoft? con una
opción para seleccionar Sí o no.
NOTE
Se recomienda leer la declaración de privacidad que se ofrece en esta página antes de realizar una selección.
3. Para activar la telemetría, seleccione Yes I am willing to send data to Microsoft (Sí, estoy dispuesto a
enviar datos a Microsoft).
4. Para desactivar la telemetría, seleccione No I prefer not to send data to Microsoft (No, prefiero no
enviar datos a Microsoft).
Recuento de plantillas de VM
Número de clústeres
Relacionado con el trabajo Indicación de si los trabajos han sido iniciados por el usuario
o son trabajos en segundo plano
Errores de directiva
DATO S REL A C IO N A DO S C O N DATO S REC O P IL A DO S
Recuento de roles de VM
Recuento de aplicaciones
Recuento de redes de VM
Recuento de subredes de VM
Recuento de grupos
Recuento de volúmenes
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información general sobre las nubes privadas de System Center - Virtual
Machine Manager (VMM).
Una nube privada es una nube aprovisionada y administrada localmente por una organización. Se implementa
mediante el propio hardware de la organización para aprovechar las ventajas de un modelo de la nube privada.
Puede usar VMM para crear e implementar componentes de nube privada y para administrar el acceso a la
nube privada y a los recursos físicos subyacentes. VMM proporciona las siguientes ventajas:
Autoser vicio : los administradores de autoservicio pueden delegar la administración y el uso de la nube
privada aunque no tengan conocimientos de los recursos físicos subyacentes. No necesitan solicitar al
proveedor de la nube privada cambios administrativos, excepto para solicitar un aumento de la capacidad y
las cuotas según sea necesario.
Opacidad : los administradores de autoservicio no necesitan tener ningún conocimiento de los recursos
físicos subyacentes.
Agrupación de recursos : los administradores pueden recopilar y presentar un conjunto agregado de
recursos, tales como recursos de red y almacenamiento. El uso de recursos está limitado por la capacidad de
la nube privada y por cuotas de roles de usuario.
Elasticidad : los administradores pueden agregar recursos a una nube privada para aumentar la capacidad.
Optimización : el uso de los recursos subyacentes se optimiza continuamente sin afectar a la experiencia
global del usuario de la nube privada.
Puede crear nubes privadas de:
Grupos host de VMM que contengan recursos de hosts de virtualización.
Un grupo de recursos de VMware
Implemente una nube privada configurando recursos de tejido, rutas de acceso de la biblioteca para los usuarios
de nube privada y la capacidad de la nube.
Pasos siguientes
Crear una nube privada en VMM
Escenario: crear una nube privada
19/08/2021 • 12 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporcionan instrucciones para crear una nube privada en System Center - Virtual Machine
Manager (VMM).
Puede crear una nube privada desde un grupo host o desde un grupo de recursos de VMware. Los grupos host
pueden contener un tipo de host único o una mezcla de hosts de Hyper-V y VMware ESX.
NOTE
Debe ser un administrador de VMM o un miembro del grupo de usuarios administradores delegados, con un ámbito que
incluya los grupos host que usará para la nube.
Antes de empezar
Necesita tener el tejido de VMM en su lugar. Más información.
Debe tener uno o más hosts de virtualización de Hyper-V o VMware en el tejido. Si quiere crear una nube a
partir de un grupo de recursos de VMware, deben estar disponibles en el tejido de VMM un servidor vCenter
y el host o el clúster de hosts de VMware ESX que contiene el grupo de recursos de VMware.
Si quiere ofrecer a los usuarios de autoservicio la posibilidad de almacenar máquinas virtuales en
la biblioteca VMM, cree un recurso compartido de biblioteca o una carpeta en un recurso
compartido de biblioteca que sirvan como ubicación de almacenamiento. Más información.
NOTE
Los usuarios de autoservicio deben tener el permiso Almacenar y volver a implementar para
almacenar sus máquinas virtuales.
Los recursos compartidos de biblioteca que designe como ubicaciones de recursos de solo lectura
para la nube privada deben ser únicos, en comparación con el recurso compartido (o los recursos
compartidos) de biblioteca que se usa para las máquinas virtuales almacenadas y para la ruta de
datos de rol de usuario que se especifica para el rol de usuario de autoservicio. Por ejemplo, si la
ruta de acceso a datos de rol de usuario de un rol de usuario de autoservicio es
\\VMMSer ver01\Finance , no se puede crear la ruta de acceso de máquina virtual almacenada
\\VMMSer ver01\Finance\StoredVMs . En cambio, si la ruta de acceso a datos de rol de usuario
es \\VMMSer ver01\Finance\FinanceUserRoleData , puede especificar
\\VMMSer ver01\Finance\StoredVMs como ruta de acceso de máquina virtual almacenada, ya
que la ruta de acceso completa es única. También puede crear recursos compartidos de biblioteca
totalmente independientes.
13. En Perfiles de capacidad , seleccione cada uno de los perfiles de capacidad de máquina virtual que
quiere agregar y haga clic en Siguiente . Seleccione los perfiles de capacidad que coincidan con el tipo de
plataformas de hipervisor que se ejecutan en los grupos host seleccionados. Los perfiles de capacidad
integrados representan los valores mínimo y máximo que se pueden configurar para una máquina
virtual en cada plataforma de hipervisor compatible.
14. En Grupos de replicación , seleccione los grupos de replicación para la nube privada y haga clic en
Siguiente .
15. En la página Resumen , confirme la configuración y haga clic en Finalizar .
Consulte el estado en Trabajos y asegúrese de que finalice.
Para comprobar que se ha creado la nube privada, compruebe VM y ser vicios > Nubes . Para ver los recursos
compartidos de biblioteca de solo lectura, también puede comprobarlo en Biblioteca > Bibliotecas de nube .
Asignación de directivas QoS de almacenamiento durante la creación de una nube
1. Siga los pasos del procedimiento anterior hasta el paso 14.
2. En Directivas QoS de almacenamiento , seleccione as directivas que desea asignar a esta nube.
3. Siga con el resto de los pasos y complete el asistente.
11. En Perfiles de capacidad , seleccione Ser vidor ESX y haga clic en Siguiente . Los perfiles de capacidad
integrados representan los valores mínimo y máximo que se pueden configurar para una máquina
virtual en cada plataforma de hipervisor compatible.
12. En la página Resumen , confirme la configuración y haga clic en Finalizar .
Consulte el estado en Trabajos y asegúrese de que finalice.
Para comprobar que se ha creado la nube privada, compruebe VM y ser vicios > Nubes . Para ver los recursos
compartidos de biblioteca de solo lectura, también puede comprobarlo en Biblioteca > Bibliotecas de nube .
La opción Directivas QoS de almacenamiento en el Asistente para crear nubes ayuda a que el
administrador del tejido seleccione la lista de directivas, que debe estar a disposición de los consumidores de la
nube.
Siga estos pasos :
1. Siga el procedimiento para crear una nube privada a partir de un grupo host hasta el paso 14.
2. En Directivas QoS de almacenamiento , seleccione as directivas que desea asignar a esta nube.
3. Siga en el paso 15 y complete los pasos restantes.
4. Revise el resumen y haga clic en Finalizar .
NOTE
Esta lista solo contiene las directivas que se encuentran disponibles en el ámbito de todos los clústeres seleccionados en la
sección Recursos del asistente para la nube. Esto permite que el usuario de autoservicio elija entre los planes disponibles,
incluso después de la colocación de la máquina virtual.
Sobre la actualización
1. Después de la actualización, las nubes existentes no tendrán ninguna directiva QoS en su oferta. El
administrador necesita actualizar la nube con las ofertas de directivas.
2. Las máquinas virtuales existentes en la nube, que tienen discos con una directiva QoS ya asignada, pasarán a
un estado incoherente. La directiva se mantiene intacta, pero la interfaz de usuario de VMM la muestra en
blanco. Los administradores pueden quitar esas directivas u ofrecerlas en las nubes afectadas.
3. Siga con el resto del paso y complete el asistente.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo administrar la configuración de nube de System Center - Virtual Machine
Manager (VMM).
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información general sobre cómo implementar hosts protegidos y máquinas
virtuales blindadas de Hyper-V en el tejido de proceso de System Center - Virtual Machine Manager (VMM).
Los tejidos protegidos proporcionan protecciones adicionales para máquinas virtuales que evitan la alteración y
el robo por parte de administradores malintencionados y malware. Como proveedor de servicios en la nube o
administrador de la nube privada, puede implementar un tejido protegido que normalmente consta de un
servidor que ejecuta el Servicio de protección de host (HGS), uno o más servidores host de Hyper-V protegidos
y una o varias máquinas virtuales blindadas que se ejecutan en esos hosts. Más información sobre el tejido
protegido.
Pasos siguientes
Aprovisionar hosts protegidos en el tejido de VMM
Aprovisionar hosts protegidos en VMM
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo implementar hosts protegidos de Hyper-V en el tejido de proceso de System
Center - Virtual Machine Manager (VMM). Más información sobre el tejido protegido.
Existen dos formas de configurar hosts protegidos de Hyper-V en el tejido de VMM.
Configure un host existente para que sea un host protegido : puede configurar un host para ejecutar
máquinas virtuales blindadas.
Agregar o aprovisionar un host protegido nuevo: este host podría ser:
Un equipo con Windows Server existente (con o sin el rol de Hyper-V)
Un equipo sin sistema operativo
Los hosts protegidos se configuran en el tejido de VMM con una de las siguientes acciones:
1. Establecer una configuración global de HGS: VMM conecta todos los hosts protegidos al mismo
servidor HGS para que se puedan migrar máquinas virtuales blindadas entre los hosts sin problemas.
Hay que especificar una configuración de HGS global válida para todos los hosts protegidos, aunque se
puede definir una configuración específica para un host que reemplace la configuración global. La
configuración incluye:
URL del ser vidor de atestación: dirección URL que el host usa para conectar con el servicio de
atestación de HGS. Este servicio autoriza un host para que ejecute máquinas virtuales blindadas.
URL del ser vidor de protección de claves: dirección URL que el host usa para recuperar la clave
necesaria para descifrar máquinas virtuales. El host debe pasar la atestación con el fin de recuperar las
claves.
Directivas de integridad de código : una directiva de integridad de código restringe el software
que se puede ejecutar en un host protegido. Cuando HGS está configurado para usar la atestación de
TPM, los hosts protegidos se deben configurar para usar una directiva de integridad de código
autorizada por el servidor HGS. Puede especificar la ubicación de las directivas de integridad de
código en VMM e implementarlas en los hosts. Esto es opcional y no es necesario para administrar a
un tejido protegido.
Asistente de blindaje de máquina vir tual VHD : un disco duro virtual especialmente preparado
que se usa para convertir máquinas virtuales existentes en protegidas. Debe configurar esta opción si
desea blindar las máquinas virtuales existentes.
2. Configurar la nube: si el host protegido se va a incluir en una nube de VMM, hay que permitir que la
nube admita máquinas virtuales blindadas.
Antes de empezar
Asegúrese de que ha implementado y configurado el Servicio de protección de host antes de continuar. Más
información sobre cómo configurar HGS en la documentación de Windows Server.
Asegúrese también de que los hosts que se convertirán en hosts protegidos cumplan los requisitos previos
oportunos:
Sistema operativo : los servidores host deben ejecutar Windows Server Datacenter. Se recomienda usar
Server Core para hosts protegidos.
Roles y características: los servidores host deben ejecutar el rol de Hyper-V y la característica
Compatibilidad de Hyper-V con protección de host. Compatibilidad de Hyper-V con protección de host
permite al host comunicarse con HGS para atestiguar su estado y pedir claves para las máquinas virtuales
blindadas. Si el host ejecuta Nano Server, debe tener instalados los paquetes Compute, SCVMM-Package,
SCVMM-Compute, SecureStartup y ShieldedVM.
Atestación de TPM : si su HGS está configurado para usar la atestación de TPM, los servidores de host
deben:
Usar UEFI 2.3.1c y un módulo TPM 2.0
Arrancar en modo UEFI (ni BIOS ni modo "heredado")
Permitir el arranque seguro
Registro de HGS: los hosts de Hyper-V deben estar registrados en HGS. El modo en que se registren
dependerá de si HGS usa la atestación AD o TPM. Más información
Migración en vivo: si quiere llevar a cabo una migración en vivo de máquinas virtuales blindadas, será
necesario implementar dos o más hosts protegidos.
Dominio : los hosts protegidos y el servidor VMM deben estar en el mismo dominio o en dominios con una
confianza bidireccional.
WARNING
Asegúrese de seleccionar la directiva de integridad de código correcto para el host. Si se aplica una directiva que no es
compatible con el host, puede que algunas aplicaciones, controladores o componentes del sistema operativo ya no
funcionen.
Si actualiza la directiva de integridad de código en el recurso compartido de archivos y desea actualizar también
los hosts protegidos, puede hacerlo mediante los pasos siguientes:
1. Ponga el host en modo de mantenimiento.
2. En Todos los hosts , haga clic con el botón derecho en el host > Aplicar directiva de integridad de
código más reciente .
3. Quite el host del modo de mantenimiento.
Pasos siguientes
Configurar un disco de plantilla blindada, un disco de utilidad y una plantilla de máquina virtual
Configuración de direcciones URL de HGS de
reserva en VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo definir las direcciones URL del Servicio guardián de host (HGS) de reserva en
la configuración global de System Center Virtual Machine Manager (VMM). Para información sobre los tejidos
protegidos, consulteeste artículo.
Al centrarse en proporcionar servicios de protección de claves y de atestación para ejecutar máquinas virtuales
blindadas en hosts de Hyper-V, el servicio de protección de host debe funcionar incluso en situaciones de
desastre.
Con la característica de configuración del HGS de reserva de VMM, se puede configurar un host protegido con
un par principal y otro secundario de direcciones URL de servicio de protección de host (un URI de atestación y
protección de claves). Esta funcionalidad habilitará escenarios como implementaciones de tejido protegido que
abarcan dos centros de datos para la recuperación ante desastres o un servicio de protección de host que se
ejecuta como máquinas virtuales blindadas.
Las direcciones URL del servicio de protección de host principal siempre se usarán a favor del secundario. Si se
produce un error en el servicio de protección de host principal tras el tiempo de espera adecuado y el número
de reintentos, la operación se volverá a intentar con el servicio secundario. Las operaciones posteriores siempre
favorecerán al servicio principal; el servicio secundario solo se usará cuando se produce un error en el principal.
Antes de empezar
Asegúrese de que ha implementado y configurado el Servicio de protección de host antes de continuar. Más
información sobre la configuración de HGS.
NOTE
Después de este paso, el servicio VMM configura los hosts compatibles con las direcciones URL de HGS de
reserva o principales. Solo los host que ejecuten Windows Server 1709 o versiones posteriores admiten las
direcciones URL de HGS de reserva.
Pasos siguientes
Implementación del Servicio de protección de host (HGS)
Administración de HGS
Configuración de HGS de reserva para una sucursal
Configuración de un disco y una plantilla de VM
para implementar máquinas virtuales blindadas
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Implementará máquinas virtuales blindadas en el tejido de proceso de Virtual Machine Manager (VMM) de
System Center mediante un disco duro de máquina virtual (VHDX) firmado, y opcionalmente con una plantilla
de máquina virtual. En este artículo se describe cómo agregar discos de plantilla firmada a VMM, configurar un
disco de utilidad de blindaje, implementar nuevas máquinas virtuales blindadas y convertir máquinas virtuales
existentes en blindadas en VMM.
Antes de empezar
El disco de plantilla firmada que se utiliza para crear la plantilla de VM blindada debe tener la familia y la
versión marcadas.
La biblioteca de VMM a la que agregar el disco plantilla firmada debe ser accesible a las nubes desde las que
se aprovisionarán VM blindadas.
La biblioteca compartida debe agregarse a las nubes desde las que las VM blindadas se aprovisionarán (no
en modo de solo lectura).
5. Haga clic en Aceptar para guardar las propiedades del disco plantilla firmada.
Pasos siguientes
Revise Aprovisionar máquinas virtuales blindadas para obtener información sobre cómo implementar
máquinas virtuales blindadas en el tejido de proceso de VMM.
Aprovisionar máquinas virtuales blindadas en el
tejido de VMM
19/08/2021 • 5 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo implementar máquinas virtuales blindadas en el tejido de proceso de System
Center - Virtual Machine Manager (VMM).
Puede implementar máquinas virtuales blindadas en VMM de dos maneras:
Convierta una máquina virtual existente en una máquina virtual blindada.
Cree una nueva máquina virtual blindada mediante un disco duro de máquina virtual (VHDX) firmado o una
plantilla de máquina virtual.
Antes de empezar
Vea un vídeo que proporciona información general rápida (2 minutos) sobre el aprovisionamiento de máquinas
virtuales blindadas en VMM. A continuación, asegúrese de que hacer lo siguiente:
1. Preparar un ser vidor HGS : debe tener un servidor HGS implementado. Más información.
2. Configurar VMM : necesitará configurar los valores globales de HGS en VMM, y configurar al menos un
host protegido. Si los hosts protegidos pertenecen a una nube, esta debe habilitarse para admitir las
máquinas virtuales blindadas. Más información.
3. Preparar un VHDX blindado y una plantilla de máquina vir tual : implementará máquinas virtuales
blindadas a partir de un disco duro virtual (VHDX) blindado y, opcionalmente, mediante una plantilla. Más
información sobre cómo prepararlos.
NOTE
No se puede usar una plantilla de servicio para crear una VM blindada. Utilice un script en su lugar.
4. Preparar archivos de datos blindados : para usar los discos de plantilla firmados de la biblioteca
VMM, los inquilinos deben preparar uno o más archivos de datos de blindaje. Este archivo contiene todos
los secretos que necesita un inquilino para implementar una máquina virtual, incluido el archivo
desatendido que se ha usado para especializar la máquina virtual, los certificados y las contraseñas de la
cuenta de administrador. El archivo también especifica el tejido protegido en el que confía el inquilino
para hospedar su máquina virtual, e información sobre los discos de plantilla firmados. El archivo está
cifrado y solo puede leerse con un host en un tejido protegido de confianza para el inquilino. Más
información.
5. Configurar un grupo host : para una administración sencilla, se recomienda colocar los hots
protegidos en un grupo host de VMM dedicado.
6. Comprobar los requisitos de máquina vir tual existentes : si quiere convertir una máquina virtual
existente en una blindada, tenga en cuenta lo siguiente:
La máquina virtual debe ser de segunda generación y tener habilitada la plantilla de arranque seguro
de Microsoft Windows.
El sistema operativo del disco debe ser:
Windows Server 2016, Windows Server 2012 R2, Windows Server 2012
Windows 10, Windows 8.1, Windows 8
El disco del sistema operativo para la máquina virtual debe usar la tabla de particiones GUID. Esto es
necesario para que las máquinas virtuales de generación 2 admitan UEFI.
7. Configurar el asistente de VHD : el proveedor de servicios de hospedaje necesitará crear una máquina
virtual que actúe como un asistente de VHD para convertir máquinas existentes. Más información.
Pasos siguientes
Vea Administrar la configuración de la máquina virtual para obtener información sobre cómo configurar
opciones de rendimiento y disponibilidad para máquinas virtuales.
Aprovisionamiento de una máquina virtual blindada
Linux en el tejido de VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo implementar máquinas virtuales blindadas Linux en System Center 1801 -
Virtual Machine Manager (VMM).
NOTE
Si usa el protocolo de aplicación inalámbrica (WAP), puede aprovisionar máquinas virtuales blindadas Linux del mismo
modo en que aprovisiona máquinas virtuales blindadas Windows.
NOTE
Esta plantilla de arranque es una novedad de los hosts RS3. Si no hay ningún host RS3 en VMM, esta
opción no aparece en el menú Plantilla de arranque seguro .
5. Seleccione Siguiente .
6. En Resumen , revise los detalles y seleccione Crear para finalizar la generación de la plantilla de
máquina vir tual blindada Linux en VMM .
# Create the PDK file on a server running Windows Server version 1709
Pasos siguientes
Obtenga información general sobre máquinas virtuales blindadas y tejido protegido.
Obtenga más información sobre herramientas de VM blindadas Linux.
Implementar y administrar una infraestructura de
red definida por software (SDN) en el tejido de
VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
System Center - Virtual Machine Manager (VMM) se puede usar para implementar y administrar una
infraestructura de Redes definidas por software (SDN).
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar una controladora de red de Redes definidas por software (SDN) en
el tejido de System Center - Virtual Machine Manager (VMM).
La controladora de red de SDN es un rol de servidor escalable y de alta disponibilidad que permite automatizar
la configuración de la infraestructura de red en lugar de realizar la configuración de los dispositivos de red
manualmente. Obtenga más información.
Para una introducción mejor, vea un vídeo (~ cinco minutos) que proporciona información general sobre la
implementación de la controladora de red.
NOTE
A partir de VMM 2019 UR1, el tipo One Connected network (Una red conectada) se ha cambiado a Red
conectada .
VMM 2019 UR2 y las versiones posteriores admiten IPv6.
VMM 2019 UR3 y las versiones posteriores admiten Azure Stack HCl (versión 20H2).
Requisitos previos
• Planear una red definida por software (SDN). Obtenga más información.
• Planear la instalación y la implementación de una controladora de red de SDN. Más información.
Antes de comenzar
Para configurar SDN en el tejido de VMM, necesita lo siguiente:
Una plantilla de ser vicio : VMM usa una plantilla de servicio para automatizar la implementación de la
controladora de red. Las plantillas de servicio de la controladora de red admiten la implementación de varios
nodos en máquinas virtuales de primera y segunda generación.
Un disco duro vir tual : la plantilla de servicio necesita un disco duro virtual preparado que se importe a la
biblioteca VMM. Este disco duro virtual se usa para las máquinas virtuales de controladora de red.
El disco duro virtual debe ejecutar Windows Server 2016 con las revisiones más recientes instaladas.
Puede estar en formato VHD o VHDX.
Una red lógica de administración : modela la conectividad de la red de administración física para los
hosts VMM, los hosts de la controladora de red y los hosts de máquina virtual de inquilino.
Un conmutador lógico : proporciona a la red lógica de administración conectividad con las máquinas
virtuales de la controladora de red.
Un cer tificado SSL : autentica las comunicaciones entre el servidor VMM y la controladora de red.
Una red lógica del proveedor de HNV y redes de VM de inquilino : valida la implementación de la
controladora de red.
Otros requisitos previos : compruebe los demás requisitos.
Pasos de implementación
Esto es lo que debe hacer para configurar una controladora de red de SDN
1. Configurar los hosts y la infraestructura de red física : debe tener acceso a los dispositivos de red
física para configurar las VLAN, el enrutamiento, etc. También necesita hosts de Hyper-V para hospedar la
infraestructura de SDN y las máquinas virtuales del inquilino. Más información.
2. Preparar un disco duro vir tual : puede preparar un disco duro virtual para la plantilla de servicio de la
controladora de red en formato VHD o VHDX, en función de la generación de plantilla de servicio que
elija.
3. Descargar las plantillas de ser vicio : descargue las plantillas de servicio de la controladora de red e
impórtelas a la biblioteca VMM.
4. Configurar grupos de seguridad de Active Director y : necesitará un grupo de seguridad de Active
Directory para la administración de la controladora de red y otro grupo de seguridad para los clientes de
la controladora de red. Cada grupo necesitará tener al menos una cuenta de usuario.
5. Configurar un recurso compar tido de biblioteca VMM . Puede tener un recurso compartido de
biblioteca opcional para conservar los registros de diagnóstico. La controladora de red accederá a este
recurso compartido de biblioteca para almacenar información de diagnóstico durante todo su ciclo de
vida.
6. Configurar un grupo host de VMM : configure un grupo host dedicado para todos los hosts de Hyper-
V de SDN.
NOTE
Los hosts deben ejecutar Windows Server 2016 con las revisiones más recientes instaladas y deben tener
habilitado el rol de Hyper-V.
7. Crear la red lógica de administración : cree una red lógica para que refleje la conectividad de red de
administración para el host VMM, los hosts de la controladora de red y los hosts de la máquina virtual de
inquilino. Si quiere asignar direcciones IP estáticas desde un grupo, cree un grupo en esta red lógica.
8. Crear e implementar un conmutador lógico de administración : cree el conmutador lógico e
impleméntelo en los hosts de la controladora de red para proporcionar conectividad a la red de
administración de las máquinas virtuales de la controladora de red.
9. Configurar un cer tificado : necesita un certificado SSL para la comunicación HTTPS o segura con la
controladora de red.
10. Impor tar la plantilla : importe y personalice la plantilla de servicio de la controladora de red.
11. Implementar el ser vicio : implemente el servicio de la controladora de red mediante la plantilla de
servicio. Después, agréguelo como servicio de VMM.
NOTE
Los archivos de recursos personalizados se usan al configurar la controladora de red y otros componentes de SDN
(equilibrador de carga de software, puerta de enlace RAS).
Ser verCer tificate.cr Archivo de recursos personalizados Recurso de biblioteca que contiene la
clave privada de la controladora de red
en formato .pfx.
TrustedRootCer tificate.cr Archivo de recursos personalizados Recurso de biblioteca que contiene una
clave pública de la entidad de
certificación (.cer), importada como un
certificado raíz de confianza para
validar el certificado SSL.
NOTE
A partir de VMM 2019 UR1, el tipo One Connected Network (Una red conectada) se ha cambiado a Red
conectada .
4. Haga clic en Sitio de red > Agregar . Seleccione el grupo host para los hosts que se administrarán
mediante el controlador de red. Inserte la información de subred IP de la red de administración. Esta red
debe ya existir y estar configurada en el conmutador físico.
5. Revise la información de resumen y haga clic en Finalizar para terminar.
Crear un grupo de direcciones IP
NOTE
A partir de VMM 2019 UR1, puede crear un grupo de direcciones IP con el asistente de creación de redes lógicas .
Si quiere asignar direcciones IP estáticas a máquinas virtuales de la controladora de red, cree un grupo de
direcciones IP en la red lógica de administración. Si usa DHCP, puede omitir este paso.
1. En la consola VMM, haga clic con el botón derecho en la red lógica de administración y seleccione Crear
grupo de direcciones IP .
2. Proporcione un nombre y una descripción opcional para el grupo y asegúrese de que la red de
administración esté seleccionada para la red lógica.
3. En el panel Sitio de red , seleccione la subred a la que prestará servicio esta dirección IP.
4. En el panel Inter valo de direcciones IP , escriba las direcciones IP inicial y final.
5. Para usar una dirección IP como dirección IP de REST, escriba una de las direcciones IP del intervalo
especificado en el cuadro Direcciones IP para reser var para otros usos . En caso de que quiera usar
el extremo REST, omita este paso.
No use las tres primeras direcciones IP de la subred disponible. Por ejemplo, si su subred disponible
va de .1 a .254, comience su intervalo en .4. o un valor mayor.
Si los nodos están en la misma subred, debe proporcionar la dirección IP de REST. Si los nodos están
en distintas subredes, debe proporcionar un nombre DNS de REST.
6. Especifique la dirección de puerta de enlace predeterminada y, opcionalmente, configure DNS y WINS.
7. En la página Resumen , revise la configuración y haga clic en Finalizar para completar el asistente.
NOTE
No use Equipo .
NOTE
Puede usar una dirección IP como nombre DNS, pero no se recomienda porque restringe la controladora de red a una
sola subred.
Puede usar cualquier nombre descriptivo para la controladora de red.
Para la implementación de varios nodos, el nombre DNS debe ser el nombre REST que quiera usar.
Para la implementación de un nodo, el nombre DNS debe ser el nombre de la controladora de red seguido del nombre
de dominio completo.
NOTE
Para exportar al formato .CER, desactive la opción Expor tar la clave privada .
NOTE
Asegúrese de que la CA empresarial esté configurada para la inscripción automática de certificados.
NOTE
Si personaliza la plantilla para la alta disponibilidad, asegúrese de que la implementa en los nodos en clúster.
Al configurar la controladora de red y especificar el FQDN como el nombre REST, no cree previamente el
registro Host A para el nodo principal NC en su DNS. Esto puede afectar a la conectividad de la controladora
de red cuando el nodo NC principal cambie. Esto es aplicable incluso si está implementando el controlador de
red mediante el script de SDN Express o VMM Express.
NOTE
Los tiempos de implementación varían en función del hardware, pero suelen oscilar entre 30 y 60 minutos. Tenga
en cuenta que si no usa un VHD\VHDX de licencia por volumen o si el VHD\VHDX no suministra la clave de
producto mediante un archivo de respuesta, la implementación se detendrá en la página Clave de producto
durante el aprovisionamiento de máquinas virtuales de la controladora de red. Debe acceder manualmente al
escritorio de la máquina virtual y omitir o escribir la clave de producto.
NOTE
Windows 2019 y versiones posteriores, se debe proporcionar permiso a las máquinas de la controladora de red para
registrar y modificar el SPN en Active Directory. Para más información, consulte Kerberos with Service Principal Name
(Kerberos con nombre de entidad de seguridad de servicio).
Agregar el servicio de la controladora de red en VMM
Después de implementar correctamente el servicio de controlador de red, el siguiente paso es agregarlo a VMM
como un servicio de red.
1. En Tejido , haga clic con el botón derecho en Redes > Ser vicio de red y haga clic en Agregar ser vicio
de red .
2. Se inicia el Asistente para agregar ser vicio de red . Especifique un nombre y una descripción
opcional.
3. Seleccione Microsoft para el fabricante y Controladora de red de Microsoft para el modelo.
4. En Credenciales , proporcione la cuenta de ejecución que quiere usar para configurar el servicio de red.
Debe ser la misma cuenta que incluyó en el grupo de clientes de la controladora de red.
5. Para la Cadena de conexión :
En la implementación de varios nodos, Ser verURL debe usar el extremo REST y ser vicename debe
ser el nombre de la instancia de la controladora de red.
En la implementación de un nodo, Ser verURL debe ser el FQDN de la controladora de red y
ser vicename debe ser el nombre de instancia del servicio de la controladora de red. Ejemplo:
serverurl=https://NCCluster.contoso.com;servicename=NC_VMM_RTM
6. En Revisar cer tificados , se crea una conexión a la máquina virtual de la controladora de red para
recuperar el certificado. Compruebe que el certificado que se muestra es el que espera. Asegúrese de
seleccionar These cer tificates have been reviewed and can be impor ted to the trusted
cer tificate storebox (Estos certificados se han revisado y se pueden importar en el almacén de
certificados de confianza).
7. En la siguiente pantalla, haga clic en Examinar proveedor para conectarse a su servicio y mostrar las
propiedades y su estado. Esto también constituye una buena prueba de si el servicio se ha creado o no
correctamente y de que usa la cadena de conexión correcta para conectarse a él. Examine los resultados y
compruebe que isNetworkController = true. Cuando la operación finalice correctamente, haga clic en
Siguiente .
8. Configure el grupo host que va a administrar la controladora de red.
9. Haga clic en Finalizar para completar el asistente. Cuando el servicio se ha agregado a VMM, aparecerá
en la lista Ser vicios de red en la consola VMM. Si el servicio de red no se ha agregado, consulte
Trabajos en la consola VMM para solucionar los problemas.
Validación de la implementación
Puede validar la implementación de la controladora de red. Para ello:
1. Cree la red del proveedor de HNV (la red de back-end) administrada por la controladora de red para la
conectividad de la máquina virtual de inquilino. Esta red se usa para validar que la controladora de red se
haya implementado correctamente y que las máquinas virtuales de inquilino dentro de la misma red virtual
puedan hacer ping las unas a las otras. Esta red ya debe existir en la infraestructura de red física y todos los
hosts del tejido de SDN deben poderse conectar físicamente a ella.
2. Después de crear la red del proveedor de HNV, configure dos redes de máquina virtual de inquilino sobre
ella. Cree redes de máquina virtual y grupos de direcciones IP y, después, implemente las máquinas virtuales
de inquilino. También puede probar la conectividad entre dos máquinas virtuales de inquilino
implementadas en hosts diferentes para asegurarse de que la controladora de red esté implementada
correctamente.
Crear la red del proveedor de HNV
1. Inicie el Asistente para crear redes lógicas . Escriba un nombre y una descripción opcional para esta red.
2. En Configuración , asegúrese de que la opción One Connected Network (Una red conectada) esté
seleccionada, dado que todas las redes del proveedor de HNV deben tener enrutamiento y conectividad
entre todos los hosts de esa red. Asegúrese de seleccionar la opción Permitir nuevas redes de máquina
vir tual creadas en esta red lógica para usar vir tualización de red . Además, deberá seleccionar
Managed by the network controller (Administrado por la controladora de red).
2. En Configuración , asegúrese de que la opción One Connected Network (Una red conectada) esté
seleccionada, dado que todas las redes del proveedor de HNV deben tener enrutamiento y conectividad
entre todos los hosts de esa red. Asegúrese de seleccionar la opción Permitir nuevas redes de
máquina vir tual creadas en esta red lógica para usar vir tualización de red . Además, deberá
seleccionar Managed by the network controller (Administrado por la controladora de red).
NOTE
A partir de VMM 2019 UR1, el tipo One Connected Network (Una red conectada) se ha cambiado a Red
conectada .
3. En Sitio de red , agregue la información del sitio de red para su red del proveedor de HNV. Debe incluir el
grupo host, la subred y la información de VLAN de la red.
4. Revise la información de Resumen y finalice el asistente.
Crear el grupo de direcciones IP
NOTE
A partir de VMM 2019 UR1, puede crear un grupo de direcciones IP con el asistente de creación de redes lógicas .
La configuración de la red lógica de HNV necesita un grupo de direcciones IP, aunque DHCP esté disponible en
esta red. Si tiene más de una subred en la configuración de la red de HNV, cree un grupo para cada una de ellas.
1. Haga clic con el botón derecho en la opción de configuración de la red lógica de HNV y seleccione Crear
grupo de direcciones IP .
2. Proporcione un nombre y una descripción opcional y asegúrese de que la red lógica del proveedor de HNV
esté seleccionada para la red lógica.
3. En Sitio de red , debe seleccionar la subred a la que prestará servicio este grupo de direcciones IP. Si tiene
más de una subred como parte de la red del proveedor de HNV, debe crear un grupo de direcciones IP
estáticas para cada una. Si solo tiene un sitio (como la topología de ejemplo), puede hacer clic Siguiente .
3. En Sitio de red , debe seleccionar la subred a la que prestará servicio este grupo de direcciones IP. Si
tiene más de una subred como parte de la red del proveedor de HNV, debe crear un grupo de direcciones
IP estáticas para cada una. Si solo tiene un sitio (como la topología de ejemplo), puede hacer clic
Siguiente .
NOTE
Para habilitar la compatibilidad con IPv6, agregue una subred IPv6 y cree un grupo de direcciones IPv6.
4. En Inter valo de direcciones IP , configure la dirección IP inicial y final. No use la primera dirección IP
de la subred disponible. Por ejemplo, si su subred disponible va de .1 a .254, comience el intervalo en .2. o
un valor mayor.
5. A continuación, configure la dirección de puerta de enlace predeterminada. Haga clic en Inser tar junto al
cuadro Puer ta de enlace predeterminada , escriba la dirección y use la métrica predeterminada.
Opcionalmente, configure DNS y WINS.
6. Revise la información de resumen y haga clic en Finalizar para completar el asistente.
7. Como parte de la integración de la controladora de red, el conmutador que implementó en los hosts para
la conectividad de red lógica de administración se ha convertido en un conmutador SDN. Este
conmutador se puede usar ahora para implementar una red administrada de una controladora de red
que incluye la red lógica del proveedor de HNV. Asegúrese de seleccionar el sitio de red correspondiente
a la red lógica del proveedor de HNV en la configuración del perfil de puerto de vínculo superior para el
conmutador lógico de administración.
La red lógica del proveedor de HNV ahora es accesible a todos los hosts del grupo host administrado de la
controladora de red.
Creación de grupos de direcciones IP y redes de VM de inquilino
Ahora, cree dos redes de VM y dos grupos de direcciones IP para los dos inquilinos de la infraestructura de SDN
para probar la conectividad.
NOTE
No use la primera dirección IP de la subred disponible. Por ejemplo, si su subred disponible va de .1 a .254, comience el
intervalo en .2. o un valor mayor.
Actualmente no se puede crear una red de VM con la opción Sin aislamiento para redes lógicas administradas por la
controladora de red. Debe elegir la opción de aislamiento Aislar usando la vir tualización de red de Hyper-V al
crear redes de VM asociadas con redes lógicas del proveedor de HNV.
Puesto que el controlador de red no se ha probado aún con IPv6, use IPv4 para la red lógica y la red de VM al crear
una red de máquina virtual.
NOTE
Al crear una red de VM, para habilitar la compatibilidad con IPv6, seleccione IPv6 en el menú desplegable IP address
protocol for the VM network (Protocolo de direcciones IP para la red de VM).
Creación de máquinas virtuales de inquilino
Ahora puede crear máquinas virtuales de inquilino conectadas a la red virtual del inquilino.
Asegúrese de que las máquinas virtuales de inquilino permiten ICMP IPv4 a través de su firewall. De forma
predeterminada, Windows Server lo bloquea.
Ejecute el comando New-NetFirewallRule –DisplayName “Allow ICMPv4-In” –Protocol ICMPv4 con
el fin de permitir el ICMP IPv4 a través del firewall.
Asegúrese de que las máquinas virtuales de su inquilino permitan el ICMP IPv4 o IPv6 a través de su firewall.
De forma predeterminada, Windows Server lo bloquea.
Ejecute el comando New-NetFirewallRule –DisplayName “Allow ICMPv4-In” –Protocol
ICMPv4 con el fin de permitir el ICMP IPv4 a través del firewall.
Ejecute el comando New-NetFirewallRule –DisplayName “Allow ICMPv6-In” –Protocol
ICMPv6 (aplicable a 2019 UR2 y versiones posteriores) con el fin de permitir el ICMP IPv6 a través
del firewall.
1. Si quiere crear una máquina virtual desde un disco duro existente, siga estas instrucciones.
2. Después de implementar al menos dos máquinas virtuales conectadas a la red, puede hacer ping a una
máquina virtual de inquilino desde la otra máquina virtual de inquilino para validar que la controladora de
red se ha implementado correctamente como servicio de red y que puede administrar la red del proveedor
de HNV para que las máquinas virtuales de inquilino puedan hacer ping las unas a las otras.
Pasos siguientes
Crear un equilibrador de carga de software
Configurar un equilibrador de carga de software de
SDN en el tejido de VMM
19/08/2021 • 16 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo implementar un equilibrador de carga de software (SLB) de Redes definidas
por software (SDN) en el tejido de System Center - Virtual Machine Manager (VMM).
El SLB permite la distribución uniforme del tráfico de red del inquilino y del cliente del inquilino entre los
recursos de red virtual, de modo que varios servidores puedan hospedar la misma carga de trabajo para
proporcionar alta disponibilidad y escalabilidad. Obtenga más información en.
Puede usar VMM para implementar una controladora de red y un equilibrador de carga de software. Después
de configurar el SLB, puede aprovechar la multiplexación y las funciones de NAT en la infraestructura de SDN.
NOTE
Desde VMM 2019 UR1, el tipo de red Una conectada se ha cambiado a Red conectada
VMM 2019 UR2 y las versiones posteriores admiten IPv6.
Antes de comenzar
Asegúrese de lo siguiente:
Planeación : obtenga información sobre cómo planear una red definida por software y revise la topología de
planeación en este documento. El diagrama muestra una configuración de 4 nodos de ejemplo. La
configuración es de alta disponibilidad con tres nodos de controladora de red (máquina virtual) y tres nodos
SLB/MUX. Muestra dos inquilinos con una red virtual dividida en dos subredes virtuales para simular un
nivel web y un nivel de base de datos. Tanto la infraestructura como las máquinas virtuales de inquilino se
pueden distribuir en cualquier host físico.
Controladora de red : debe tener una controladora de red de SDN implementada en el tejido de VMM para
que la infraestructura de proceso y de red se esté ejecutando antes de configurar el equilibrador de carga.
Cer tificado SSL : para importar la plantilla de servicio SLB, deberá preparar un certificado SSL. Durante la
implementación de la controladora de red, ya configuró el certificado para que estuviera disponible. Para
usar el certificado que ha preparado durante la implementación de la controladora de red para SLB, haga clic
con el botón derecho en el certificado y expórtelo sin contraseña en formato .CER. Colóquelo en la biblioteca,
en la carpeta NCCertificate.CR que creó al configurar la controladora de red.
Plantilla de ser vicio : VMM usa una plantilla de servicio para automatizar la implementación de SLB. Las
plantillas de servicio admiten la implementación de varios nodos en máquinas virtuales de primera y
segunda generación.
Máquinas vir tuales de SLB : todas las máquinas virtuales de SLB deben ejecutar Windows Server 2016
con las revisiones más recientes instaladas.
Red de HNV : asegúrese de que ha creado la red de HNV de proveedor como parte de la validación de la
controladora de red. Más información.
Pasos de implementación
1. Preparar el cer tificado SSL : coloque el certificado en la biblioteca VMM.
2. Descargar la plantilla de ser vicio : descargue la plantilla de servicio que necesite para implementar
SLB/MUX.
3. Crear las redes lógicas de tránsito : debe crear redes lógicas:
Una red lógica para reflejar la red física de tránsito (front-end).
Redes de IP virtual privada (VIP) y redes VIP públicas para asignar VIP al servicio SLB.
4. Crear redes lógicas de VIP públicas y privadas : redes de IP virtual privada (VIP) y redes VIP públicas
para asignar VIP al servicio SLB.
5. Impor tar la plantilla de ser vicio : importe y personalice la plantilla de servicio SLB.
6. Implementar SLB : implemente SLB como un servicio VMM y configure las propiedades del servicio.
7. Validar la implementación : configure el emparejamiento BGP entre la instancia de SLB/MUX y un
enrutador BGP, asigne una dirección IP pública a un servicio o máquina virtual de inquilino y obtenga acceso
a la máquina virtual o servicio desde fuera de la red.
Preparar el certificado
Asegúrese de que el certificado SSL que creó durante la implementación de la controladora de red está copiado
en la carpeta NCCertificate.CR.
3. En Sitio de red , agregue la información del sitio de red de la red lógica de VIP privada.
4. Revise la información de Resumen y finalice el asistente.
Crear una VIP pública :
1. Inicie el Asistente para crear redes lógicas . Escriba un nombre y una descripción opcional para esta red.
2. En Configuración , seleccione Una red conectada . Seleccione Crear una red de máquina vir tual con
el mismo nombre para permitir que las máquinas vir tuales accedan a esta red lógica
directamente . Seleccione Managed by the network controller (Administrado por la controladora de
red) y Red de dirección IP pública .
2. En Configuración , seleccione Una red conectada . Seleccione Crear una red de máquina vir tual
con el mismo nombre para permitir que las máquinas vir tuales accedan a esta red lógica
directamente . Seleccione Managed by the network controller (Administrado por la controladora de
red).
Para UR1 y versiones posteriores, en Configuración , seleccione Red conectada y después tanto
Administrado por la controladora de red como Red de dirección IP pública .
3. En Sitio de red , agregue la información del sitio de red de la red lógica de VIP pública.
4. Revise la información de Resumen y finalice el asistente.
Crear grupos de direcciones IP para las redes de VIP públicas y privadas
1. Haga clic con el botón derecho en la red lógica de VIP privada > Crear grupo de direcciones IP .
2. Proporcione un nombre y una descripción opcional para el grupo de direcciones IP y asegúrese de que esté
seleccionada la red lógica correcta.
3. Acepte el sitio de red predeterminado y haga clic en Siguiente .
4. En Inter valo de direcciones IP , configure la dirección IP inicial y final.
NOTE
No use la primera dirección IP de la subred disponible. Por ejemplo, si su subred disponible va de .1 a .254,
comience el intervalo en .2. o un valor mayor.
4. En Inter valo de direcciones IP , configure la dirección IP inicial y final. Especifique el grupo de direcciones
IPv6 si usa el espacio de direcciones IPv6.
NOTE
No use la primera dirección IP de la subred disponible. Por ejemplo, si su subred disponible va de .1 a .254,
comience el intervalo en .2. o un valor mayor. Para especificar el intervalo de VIP, no utilice la forma abreviada de la
dirección IPv6; use el formato 2001:db8:0:200:0:0:0:7 en lugar de 2001:db8:0:200::7.
El número máximo de direcciones permitidas en un único intervalo de VIP es 1024.
5. En Direcciones IP reser vadas para VIP de equilibrador de carga , escriba el intervalo de direcciones IP
de la subred. Debe coincidir con las direcciones inicial y final que especificó.
6. No es necesario proporcionar información de puerta de enlace, DNS o WINS, dado que este grupo se usa
para asignar direcciones IP a VIP solo mediante la controladora de red. Haga clic en Siguiente para omitir
estas pantallas. Escriba la dirección y use la métrica predeterminada. Opcionalmente, configure DNS y WINS.
7. Revise la información de resumen y haga clic en Finalizar para completar el asistente.
8. Repita el procedimiento para la red lógica de VIP pública, pero esta vez escriba el intervalo de direcciones IP
de la red pública.
NOTE
La red de tránsito no es aplicable cuando se usan plantillas de topología simplificada.
Una vez completada la asignación, aparece el cuadro de diálogo Implementar ser vicio . Es normal que las
instancias de máquina virtual estén inicialmente en rojo. Haga clic en Actualizar vista previa para buscar
automáticamente hosts adecuados para la máquina virtual.
3. A la izquierda de la ventana Configurar implementación , configure las opciones tal como se indica en
la tabla siguiente:
4. Después de configurar estas opciones, haga clic en Implementar ser vicio para iniciar el trabajo de
implementación del servicio. Los tiempos de implementación varían en función del hardware, pero
suelen oscilar entre 30 y 60 minutos.
5. Si no va a usar un VHDX de licencias por volumen o si el VHDX no tiene la clave de producto de un
archivo de respuesta, la implementación se detendrá en la página Clave del producto durante el
aprovisionamiento de máquinas virtuales de SLB/MUX. Debe acceder manualmente al escritorio de la
máquina virtual y omitir o escribir la clave de producto.
6. Cuando haya finalizado el trabajo de implementación de servicio, compruebe que el servicio aparece en
VM y ser vicios > Ser vicios > Información de red de VM para ser vicios . Haga clic con el botón
derecho en el servicio y compruebe que el estado es Implementado en Propiedades .
Después de la implementación, compruebe que el servicio aparece en Todos los hosts > Ser vicios >
Información de red de VM para ser vicios . Haga clic con el botón derecho en el servicio SLB/MUX >
Propiedades y compruebe que el estado es Implementado . Si se produce un error en la implementación de
SLB/MUX, asegúrese de eliminar la instancia de servicio con error antes de intentar de nuevo la implementación
del SLB.
Si quiere reducir horizontalmente o escalar horizontalmente una instancia implementada de servicio de
equilibrador de carga de software, lea este blog.
NOTE
Una vez implementado el servicio SLB, deshabilite el registro de DNS en el adaptador de red virtual, que está conectado a
la red de máquina virtual de tránsito en todas las máquinas virtuales MUX de SLB.
Validación de la implementación
Una vez que implemente SLB/MUX, puede validar la implementación mediante la configuración del
emparejamiento BGP entre la instancia de SLB/MUX y un enrutador BGP, la asignación de una dirección IP
pública a un servicio o máquina virtual de inquilino y el acceso al servicio o la máquina virtual de inquilino
desde fuera de la red.
Use el procedimiento siguiente para validar :
1. Escriba los detalles del enrutador externo en el asistente. Por ejemplo:
2. Haga clic en Aceptar para completar la configuración de instancia de servicio de SLB/MUX.
3. Revise la ventana Trabajos para comprobar que los trabajos Actualizar el rol de tejido con la
configuración necesaria y Asociar instancia de ser vicio con un rol de tejido se completaron
correctamente.
4. Para completar la operación de emparejamiento BGP, necesita configurar BGP a fin de emparejarlo con la
instancia de SLB/MUX en el enrutador. Si usa un enrutador de hardware, deberá consultar la
documentación del proveedor sobre cómo configurar el emparejamiento BGP de ese dispositivo.
También necesita conocer la dirección IP de la instancia de SLB/MUX que implementó anteriormente. Para
ello, puede iniciar sesión en la máquina virtual de SLB/MUX y ejecutar ipconfig /all desde el símbolo del
sistema, o bien puede obtener la dirección IP desde la consola VMM.
Nota : Escriba una dirección IP de la red de tránsito.
5. Si crea un nuevo grupo de direcciones VIP después de completar el emparejamiento, debe anunciar
todos los grupos de direcciones VIP mediante la consola VMM.
Después de realizar la validación, puede empezar a usar SLB para el equilibrio de carga. Para obtener
información relacionada, vea Equilibrar la carga del tráfico de red y Configurar reglas NAT.
Pasos siguientes
Crear una puerta de enlace RAS
Configurar una puerta de enlace RAS de SDN en el
tejido de VMM
18/08/2021 • 14 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar una puerta de enlace RAS de Redes definidas por software (SDN)
en el tejido de System Center - Virtual Machine Manager (VMM).
Una puerta de enlace RAS de SDN es un elemento de ruta de acceso a datos en SDN que permite la
conectividad de sitio a sitio entre dos sistemas autónomos. En concreto, una puerta de enlace RAS permite la
conectividad de sitio a sitio entre redes de inquilinos remotos y su centro de datos mediante IPsec,
encapsulación de enrutamiento genérico (GRE) o reenvío de capa 3. Obtenga más información en.
NOTE
A partir de VMM 2019 UR1, el tipo One Connected Network (Una red conectada) se ha cambiado a Red
conectada .
VMM 2019 UR2 y las versiones posteriores admiten IPv6.
Antes de comenzar
Antes de comenzar, asegúrese de lo siguiente:
Planeación : obtenga información sobre cómo planear una red definida por software y revise la topología de
planeación en este documento. El diagrama muestra una configuración de 4 nodos de ejemplo. La
configuración es de alta disponibilidad con tres nodos de controladora de red (máquina virtual) y tres nodos
SLB/MUX. Muestra dos inquilinos con una red virtual dividida en dos subredes virtuales para simular un
nivel web y un nivel de base de datos. Tanto la infraestructura como las máquinas virtuales de inquilino se
pueden distribuir en cualquier host físico.
Controladora de red : debe implementar la controladora de red antes de implementar la puerta de enlace
RAS.
SLB : para asegurarse de que las dependencias se controlan correctamente, también debe implementar el
SLB antes de configurar la puerta de enlace. Si se han configurado un SLB y una puerta de enlace, puede usar
y validar una conexión IPsec.
Plantilla de ser vicio : VMM usa una plantilla de servicio para automatizar la implementación de la puerta
de enlace. Las plantillas de servicio admiten la implementación de varios nodos en máquinas virtuales de
primera y segunda generación.
Pasos de implementación
Para configurar una puerta de enlace RAS, haga lo siguiente:
1. Descargar la plantilla de ser vicio : descargue la plantilla de servicio que necesite para implementar la
puerta de enlace.
2. Crear la red lógica de VIP : cree una red lógica de VIP GRE. Necesita un grupo de direcciones IP para VIP
privadas y la asignación de VIP a puntos de conexión GRE. La red existe para definir las VIP que se asignan a
las máquinas virtuales de puerta de enlace que se ejecutan en el tejido de SDN para una conexión GRE de
sitio a sitio.
3. Impor tar la plantilla de ser vicio : importe la plantilla de servicio de puerta de enlace RAS.
4. Implementación de la puer ta de enlace : implemente una instancia de servicio de puerta de enlace y
configure sus propiedades.
5. Validación de la implementación : configure L3, IPsec o GRE de sitio a sitio y valide la implementación.
NOTE
A partir de VMM 2019 UR1, puede crear un grupo de direcciones IP con el asistente de creación de redes lógicas .
1. Haga clic con el botón derecho en la red lógica VIP GRE > Crear grupo de direcciones IP .
2. Escriba un nombre y una descripción opcional para el grupo y compruebe que la red VIP esté seleccionada.
Haga clic en Siguiente .
3. Acepte el sitio de red predeterminado y haga clic en Siguiente .
4. Elija una dirección IP inicial y final para su intervalo. Inicie el intervalo en la segunda dirección de la subred
disponible. Por ejemplo, si su subred disponible va de .1 a .254, comience el intervalo en .2.
5. En el cuadro Direcciones IP reser vadas para VIP de equilibrador de carga , escriba el intervalo de
direcciones IP de la subred. Debe coincidir con el intervalo usado para las direcciones IP inicial y final.
6. No es necesario proporcionar información de puerta de enlace, DNS o WINS, dado que este grupo se usa
para asignar direcciones IP a VIP solo mediante la controladora de red. Haga clic en Siguiente para omitir
estas pantallas.
7. En Resumen , revise la configuración y finalice el asistente.
4. Si ha creado una subred IPv6, cree un grupo de direcciones VIP GRE IPv6 independiente.
5. Elija una dirección IP inicial y final para su intervalo. Inicie el intervalo en la segunda dirección de la subred
disponible. Por ejemplo, si su subred disponible va de .1 a .254, comience el intervalo en .2. Para especificar el
intervalo de VIP, no utilice la forma abreviada de la dirección IPv6; use el formato 2001:db8:0:200:0:0:0:7 en
lugar de 2001:db8:0:200::7.
6. En el cuadro Direcciones IP reser vadas para VIP de equilibrador de carga , escriba el intervalo de
direcciones IP de la subred. Debe coincidir con el intervalo usado para las direcciones IP inicial y final.
7. No es necesario proporcionar información de puerta de enlace, DNS o WINS, dado que este grupo se usa
para asignar direcciones IP a VIP solo mediante la controladora de red. Haga clic en Siguiente para omitir
estas pantallas.
8. En Resumen , revise la configuración y finalice el asistente.
NOTE
El límite de ancho de banda es el valor total del ancho de banda entrante y saliente.
Las proporciones equivalentes para túneles GRE y L3 son 1/5 y 1/2 respectivamente.
9. Configure el número de nodos reservados para la copia de seguridad en el campo Nodes for reser ved
for failures (Nodos reservados para errores).
10. Para configurar máquinas virtuales de puerta de enlace individuales, haga clic en cada máquina virtual y
seleccione la subred de front-end IPv4, especifique el ASN local y, opcionalmente, agregue la información
del dispositivo de emparejamiento para BGP del mismo nivel.
Nota : Debe configurar los pares BGP de puerta de enlace, si tiene previsto usar conexiones de GRE.
La instancia de servicio que ha implementado ya está asociada al rol de administrador de puerta de enlace.
Debería ver la instancia de máquina virtual de puerta de enlace indicada debajo.
7. En Capacidad de puer ta de enlace , configure los valores de capacidad.
La capacidad de puerta de enlace (Mbps) denota el ancho de banda TCP normal que se espera de la
máquina virtual de puerta de enlace. Debe establecer este parámetro en función de la velocidad de red
subyacente que use.
El ancho de banda de túnel IPsec se limita a (3/20) de la capacidad de puerta de enlace. Esto significa que,
si la capacidad de puerta de enlace está establecida en 1000 Mbps, la capacidad equivalente de túnel
IPsec se limita a 150 Mbps.
NOTE
El límite de ancho de banda es el valor total del ancho de banda entrante y saliente.
Las proporciones equivalentes para túneles GRE y L3 son 1/5 y 1/2 respectivamente.
8. Configure el número de nodos reservados para la copia de seguridad en el campo Nodes for reser ved
for failures (Nodos reservados para errores).
9. Para configurar máquinas virtuales de puerta de enlace individuales, haga clic en cada máquina virtual y
seleccione la subred de front-end IPv4, especifique el ASN local y, opcionalmente, agregue la información
del dispositivo de emparejamiento para BGP del mismo nivel.
Nota : Debe configurar los pares BGP de puerta de enlace, si tiene previsto usar conexiones de GRE.
La instancia de servicio que ha implementado ya está asociada al rol de administrador de puerta de enlace.
Debería ver la instancia de máquina virtual de puerta de enlace indicada debajo.
Validación de la implementación
Después de implementar la puerta de enlace, puede configurar los tipos de conexión GRE S2S, IPsec S2S o L3 y
validarlos. Para obtener más información, vea el siguiente contenido:
Crear y validar conexiones IPsec de sitio a sitio
Crear y validar conexiones GRE de sitio a sitio
Crear y validar conexiones L3
Para más información sobre los tipos de conexión, vea este artículo.
$t.PortEnd=5090
$t.PortStart=5080
$t.IpAddressStart=10.100.101.10
$t.IpAddressEnd=10.100.101.100
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
System Center - Virtual Machine Manager (VMM) se puede usar para implementar y administrar una
infraestructura de Redes definidas por software (SDN).
Puede implementar componentes de SDN en el tejido de VMM, por ejemplo:
Controladora de red : la controladora de red permite automatizar la configuración de la infraestructura de
red, sin necesidad de configurar manualmente los servicios y los dispositivos de red.
Puer ta de enlace RAS de SDN : la puerta de enlace RAS es un enrutador multiinquilino de Windows
Server 2016, compatible con BGP y basado en software, que está diseñado para CSP y para empresas que
hospedan varias redes virtuales de inquilinos mediante HNV.
Equilibrio de carga de software (SLB) para SDN : SDN de Windows Server 2016 puede usar el
equilibrio de carga de software (SLB) para distribuir uniformemente tráfico de red del inquilino y del cliente
del inquilino entre recursos de red virtual. El SLB de Windows Server permite habilitar múltiples servidores
para que hospeden la misma carga de trabajo, lo que proporciona alta disponibilidad y escalabilidad.
Existen dos maneras de implementar estos componentes:
Consola VMM : implemente la controladora de red, SLB y la puerta de enlace de RAS manualmente en la
consola de VMM.
PowerShell : implemente todos los componentes mediante scripts de PowerShell.
Antes de empezar
La implementación de un conmutador habilitado para SET no se admite actualmente en una implementación
de PowerShell. Se debe implementar fuera de banda y luego especificar su nombre durante la
implementación.
Compruebe que cumple los requisitos previos para la implementación de componentes de SDN:
Requisitos previos de controladora de red
Requisitos previos de SLB
Requisitos previos de puerta de enlace de RAS
Pasos de implementación
Esto es lo que debe hacer para configurar componentes de SDN en VMM con PowerShell.
1. Configurar los hosts y la infraestructura de red física : debe tener acceso a los dispositivos de red
física para configurar las VLAN, el enrutamiento, etc. También necesita hosts de Hyper-V para hospedar la
infraestructura de SDN y las máquinas virtuales del inquilino. Más información.
2. Disco duro virtual preparado para las plantillas de servicio en formato VHD o VHDX.
3. Descargue la plantilla de controladora de red, la plantilla del servicio de SLB y la plantilla del servicio de
puerta de enlace de RAS.
4. Importe las plantillas de controladora de red, SLB y puerta de enlace de RAS en la biblioteca VMM.
5. Configure grupos de seguridad de Active Directory. Uno para la administración de la controladora de red
y otro para los clientes de la controladora de red. Cada grupo necesitará tener al menos una cuenta de
usuario.
6. Configure un recurso compartido de biblioteca de VMM. Puede tener un recurso compartido de archivos
de biblioteca para guardar registros de diagnóstico. La controladora de red accederá a este recurso
compartido de biblioteca para almacenar información de diagnóstico durante todo su ciclo de vida.
7. Configure un grupo de hosts de VMM dedicado para todos los hosts de Hyper-V de SDN. Tenga en
cuenta que los hosts deben ejecutar la versión más reciente de Windows Server 2016 y deben tener
habilitado el rol de Hyper-V.
8. Configure un certificado. Necesitará un certificado de SSL para la comunicación HTTPS entre VMM y la
controladora de red.
9. Descargue y ejecute los scripts de SDN. Hay tres scripts:
VMMExpress.ps1 : este script implementa la pila de SDN. Después de descargarlo, puede realizar sus
propias personalizaciones.
Fabricconfig.psd1 : este archivo acepta todas las entradas para configurar SDN.
Fabricconfig_Example.psd1 : un archivo de ejemplo que contiene parámetros ficticios. Puede
sustituirlos por sus propios parámetros.
Pasos siguientes
Configurar hosts y la infraestructura de red física para SDN .
Configurar redes de máquinas virtuales en SDN
mediante VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información sobre cómo crear redes de máquinas virtuales en una SDN
mediante System Center - Virtual Machine Manager (VMM).
Las redes de VM son objetos abstractos que actúan como una interfaz para redes lógicas. En un entorno de red
virtualizado, mediante las redes de máquinas virtuales, puede abstraer las máquinas virtuales de la red lógica
subyacente.
Una red lógica puede tener una o más redes de máquinas virtuales asociadas en función de su configuración de
aislamiento.
Los dos tipos de configuración de aislamiento siguientes se admiten en el tejido de SDN:
Vir tualización de red : Si una red lógica está aislada mediante virtualización de red, puede crear varias
redes de máquinas virtuales para esta red lógica. En una red de máquinas virtuales, los inquilinos pueden
usar cualquier dirección IP independientemente de las direcciones IP que se usen en otras redes de
máquinas virtuales. Como proveedor de servicios, puede hospedar cargas de trabajo de varios inquilinos
en una única red lógica. Los inquilinos también pueden configurar las conexiones de red en estas redes
de máquinas virtuales.
Sin aislamiento : Si una red lógica no dispone de aislamiento, entonces únicamente se le puede asociar
una sola red de máquinas virtuales. Como proveedor de servicios, puede hospedar cargas de trabajo de
infraestructura mediante este tipo de configuración de aislamiento.
NOTE
El aislamiento de VLAN no se admite en el tejido de SDN.
Antes de comenzar
Asegúrese de lo siguiente:
Que la controladora de red está implementada en el tejido de SDN. Más información.
Que creó una red lógica con la configuración de aislamiento adecuada y se estableció para ser
administrada por la controladora de red de Microsoft. Además, que creó los grupos de IP para esta red
lógica.
NOTE
Si quiere implementar las máquinas virtuales con direcciones IP dinámicas en redes "sin aislamiento", los grupos de
direcciones IP no son necesarios.
De forma predeterminada, las máquinas virtuales conectadas a una red de máquinas virtuales con
configuración de aislamiento de virtualización de red no se pueden conectar a otras redes. Si quiere que la
red de máquinas virtuales se conecte a otras redes, primero debe implementar SLB de SDN y puerta de
enlace de SDN.
4. En Subredes de VM haga clic en Agregar , especifique el nombre y las subredes para la red de
máquinas virtuales y, después, haga clic en Siguiente .
NOTE
Puede agregar varias subredes.
5. En el panel Conectividad , seleccione el tipo de conectividad que quiere usar para esta red de máquinas
virtuales.
NOTE
De forma predeterminada, todas las máquinas virtuales en una red de máquinas virtuales se comunican entre sí.
Si quiere las máquinas virtuales de esta red se comuniquen con otras redes, configure las siguientes opciones en la
página Conectividad :
Conectar con otra red a través de un túnel VPN : Seleccione esta opción si quiere que las
máquinas virtuales de esta red se comuniquen con otras redes a través de VPN. Para obtener
automáticamente las rutas entre los sitios conectados a través del túnel VPN, seleccione la opción
Habilitar el protocolo de puer ta de enlace de borde . Seleccione el dispositivo de puer ta
de enlace de VPN que quiere usar y confirme la configuración.
En función de la selección, aparecen las páginas Conexiones VPN y Protocolo de puer ta de
enlace de borde , complete la configuración según la información proporcionada por el
administrador de VPN.
Conectar directamente a una red lógica adicional : Seleccione esta opción si quiere que las
máquinas virtuales de esta red de máquinas virtuales se conecten directamente a una red lógica
adicional. Para habilitar el acceso a los recursos de Internet, seleccione Traducción de
direcciones de red (NAT) o seleccione Enrutamiento directo como puente entre un espacio
de direcciones IP virtualizado y un espacio de direcciones IP físico.
6. En Resumen , compruebe la configuración y haga clic en Finalizar .
Una vez que se ha completado correctamente el trabajo, puede ver la red de máquinas virtuales recién creada
en VM y ser vicios > Redes de VM .
NOTE
Después de crear una red de máquinas virtuales con virtualización de red, asegúrese de crear un grupo de direcciones IP
para esta red de máquinas virtuales.
NOTE
Si ha creado un grupo de direcciones IP en la red lógica, el mismo estará directamente disponible para la red de máquinas
virtuales.
Pasos siguientes
Crear un grupo de direcciones IP para una red de máquinas virtuales
Configuración de redes cifradas de redes definidas
por software mediante VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se explica cómo cifrar las redes de máquinas virtuales en redes definidas por software con
System Center Virtual Machine Manager (VMM).
En la actualidad, el tráfico de red lo puede cifrar el sistema operativo invitado o una aplicación mediante
tecnologías como IPSec y TLS. Sin embargo, estas tecnologías son difíciles de implementar debido a su
complejidad inherente y a los desafíos relacionados con la interoperabilidad entre sistemas debido a la
naturaleza de la implementación.
Mediante la característica de redes cifradas en VMM, el cifrado de un extremo a otro se puede configurar con
facilidad en redes de máquinas virtuales mediante el uso de la controladora de red. Este cifrado impide que se
lea y manipule el tráfico entre dos máquinas virtuales en la misma red y subred de máquina virtual. VMM 1801
y versiones posteriores admiten esta característica.
El control del cifrado se encuentra en el nivel de subred y el cifrado puede habilitarse o deshabilitarse para cada
subred de la red de máquina virtual.
Esta característica se administra a través de la controladora de red de las redes definidas por software. Si todavía
no dispone de una infraestructura de redes definidas por software con un contexto de nomenclatura, consulte
Implementar de redes definidas por software para más información.
NOTE
Actualmente, esta característica ofrece protección de administradores de red y de otros fabricantes, y no ofrece ninguna
protección frente a los administradores del tejido. La protección frente a administradores de tejido se encuentra en la
canalización y estará disponible próximamente.
Antes de empezar
Asegúrese de que se cumplen los siguientes requisitos previos:
Al menos dos hosts para las máquinas virtuales de inquilinos con objeto de validar el cifrado.
Red de máquina virtual basada en HNV con el cifrado habilitado y un certificado, que se pueden crear y
distribuir mediante el administrador del tejido. Tenga en cuenta que el certificado junto con su clave privada
debe estar almacenado en el almacén de certificados local de todos los hosts, donde residen las máquinas
virtuales (de esa red).
NOTE
Tome nota de la "huella digital" del certificado que se genere. En el artículo indicado en el paso 2: no es necesario
realizar las acciones que se detallan en "Creación de una credencial de certificado" y "Configuración de una red
virtual para cifrado". Configurará esos valores con VMM en los pasos siguientes:
2. Configure una red de proveedor de HNV para la conectividad de máquina virtual de inquilinos, que será
administrada por la controladora de red. Más información.
3. Cree una red de máquina virtual del inquilino y una subred. Durante la creación de la subred, seleccione
Habilitar cifrado en Subredes de VM . Más información.
En el paso siguiente, pegue la huella digital del certificado que ha creado.
4. Cree dos máquinas virtuales en dos hosts físicos independientes y conéctelos a la subred anterior. Más
información.
5. Adjunte cualquier aplicación de examen de paquetes en las dos interfaces de red de los dos hosts, donde
se colocan las máquinas virtuales de inquilinos.
6. Envíe el tráfico, los ping, HTTP u cualquier otro paquete, entre los dos hosts y compruebe los paquetes en
la aplicación de examen de paquetes. Los paquetes no deben tener ningún texto sin formato discernible
como parámetros de una solicitud HTTP.
Permitir y bloquear el tráfico de máquina virtual
mediante las ACL del puerto de SDN
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En System Center Virtual Machine Manager (VMM), puede configurar y administrar de manera centralizada las
listas de control de acceso (ACL) del puerto de redes definidas por software (SDN).
Una ACL del puerto es un conjunto de reglas de ACL que filtran el tráfico en el nivel de puerto de capa 2.
Una ACL del puerto en VMM filtra el acceso a un determinado objeto de red de VMM.
Cada objeto de red de VMM no puede tener más de una ACL del puerto conectada.
Una ACL contiene reglas y se puede adjuntar a cualquier número de objetos de red de VMM. Puede crear
una ACL sin reglas y agregar las reglas posteriormente.
Si una ACL tiene varias reglas, estas se aplican en función de la prioridad. Después de que una regla coincida
con los criterios y se aplique, no se procesa ninguna otra.
Las ACL del puerto de SDN se pueden aplicar a subredes virtuales y adaptadores de red virtual.
NOTE
La configuración de ACL de puerto solo se expone a través de los cmdlets de PowerShell en VMM y no se puede
configurar en la consola VMM.
Con PowerShell para VMM también puede configurar las ACL del puerto de Hyper-V. Para más información, vea
ACL del puerto de Hyper-v.
En este artículo se proporciona información sobre cómo crear y administrar las ACL del puerto de SDN
mediante los cmdlets de PowerShell para VMM.
Antes de empezar
Asegúrese de que la controladora de red de SDN está implementada.
PS C:\> New-SCPortACL -Name "RDPAccess" -Description "PortACL to control RDP access" -ManagedByNC
NOTE
El parámetro -ManagedByNC garantiza que la ACL del puerto está administrada por la controladora de red (NC)
y solo puede adjuntarse a objetos administrados por la controladora de red. Los cmdlets que se proporcionan
aquí usan valores de ejemplo.
PS C:\> New-SCPortACLRule -Name "AllowRDPAccess" -PortACL $portACL -Description "Allow RDP Rule from
a subnet" -Action Allow -Type Inbound -Priority 110 -Protocol Tcp -LocalPortRange 3389 -
RemoteAddressPrefix 10.184.20.0/24
NOTE
Intervalo de prioridad para las reglas de ACL del puerto de SDN: 1 – 64500.
Solo se admiten los parámetros de los protocolos TCP/UDP/Any para la creación de reglas de ACL.
NOTE
También puede adjuntar una ACL del puerto al crear el adaptador de red virtual a través del cmdlet New-
SCVir tualNetworkAdapter . Más información.
NOTE
También puede adjuntar una ACL del puerto durante la creación de la subred de máquina virtual a través del
cmdlet New-SCVMSubnet . Más información.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información sobre cómo configurar las opciones de calidad de servicio (QoS)
para redes virtuales de SDN en System Center - Virtual Machine Manager (VMM). A través de esta
configuración, puede limitar el ancho de banda del tráfico que fluye dentro o fuera de un adaptador de red
virtual (vNIC) mediante la especificación del mínimo ancho de banda reservado o el ancho de banda máximo
para el adaptador.
Los proveedores de servicios pueden impedir que una máquina virtual de tráfico elevado bloquee otras
máquinas virtuales.
Los inquilinos pueden obtener el ancho de banda reservado mínimo independientemente del tráfico de red.
Para obtener información detallada sobre la configuración de QoS de SDN disponible en la controladora de red,
vea Configurar la calidad de servicio (QoS) para un adaptador de red de la máquina virtual de inquilino.
La configuración de QoS se administra en VMM a través de perfiles de puerto de adaptador de red virtual
asociados a una clasificación de puerto. La configuración del perfil de puerto habilita la uniformidad y la
facilidad de aplicación en varios adaptadores.
Antes de empezar
Asegúrese de que ha implementado la controladora de red en el tejido de SDN. Más información.
NOTE
Ancho de banda mínimo (Mbps) no es compatible con VMM para SDN.
Limitar el ancho de banda de entrada de la vNIC no es compatible con VMM.
Ancho de banda mínimo (Peso) establece la opción outboundReser vedValue en la controladora de red y el ancho
de banda máximo (Mbps) establece la opción outboundMaximumMbps .
Asegúrese de que los valores mínimo y máximo para el ancho de banda están dentro del intervalo de ancho de banda
de la NIC física en la que se implementa el conmutador lógico. En caso contrario, se rechazará la solicitud de asignación
de ancho de banda.
4. Navegue para seleccionar la clasificación de puerto (por ejemplo: Carga de trabajo del InquilinoA ) y
haga clic en Aceptar .
5. Seleccione la opción Incluir el perfil de puer to de adaptador de red y haga clic en Examinar .
Seleccione el perfil de puerto vNIC, (por ejemplo, InquilinoA que creó en el procedimiento anterior) y
haga clic en Aceptar .
6. Repita los pasos anteriores para agregar las clasificaciones de puerto necesarias para este conmutador
lógico.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En el tejido de Redes definidas por software (SDN), puede usar el equilibrador de carga de software (SLB) para
distribuir uniformemente el tráfico de red entre las cargas de trabajo administradas por los proveedores de
servicios de nube (CSP) y los inquilinos. Obtenga más información sobre el Equilibrador de carga de software
(SLB).
System Center Virtual Machine Manager (VMM) admite los siguientes dos escenarios de equilibrio de carga:
Equilibrio de carga del tráfico de red externo : Este escenario incluye el equilibrio de carga del
tráfico de red procedente de una red externa. El equilibrio de carga se realiza a través de una IP virtual
(VIP) pública. Las máquinas virtuales de carga de trabajo se puede conectar a una red de máquinas
virtuales sin aislamiento o a una red de máquinas virtuales que tenga habilitada la vir tualización de
red .
Equilibrio de carga de tráfico de red interno (equilibrio de carga interno): Este escenario incluye el
equilibrio de carga del tráfico de red de cargas de trabajo en la red de máquinas virtuales que tiene
habilitada la vir tualización de red . El equilibrio de carga se realiza a través de una IP virtual.
NOTE
VMM 2016 admite la configuración de equilibrio de carga mediante el uso de PowerShell. La configuración a
través de plantillas de servicio no se admite actualmente.
En este artículo se proporciona información sobre cómo configurar el equilibrio de carga de máquinas virtuales
de carga de trabajo mediante el uso de PowerShell.
NOTE
Desde VMM 2019 UR1, el tipo de red Una conectada se ha cambiado a Red conectada
VMM 2019 UR2 y las versiones posteriores admiten IPv6.
Antes de comenzar
Asegúrese de lo siguiente:
Se implementan la Controladora de red SDN y el equilibrador de carga de software de SDN.
Las máquinas virtuales necesarias se crean en las redes adecuadas y se identifican para el equilibrio de
carga.
Crear una plantilla de dirección VIP
Siga los pasos siguientes para configurar las IP virtuales para equilibrar la carga de las máquinas virtuales de
carga de trabajo (DIP).
1. En la consola VMM, haga clic en Tejido > Plantillas de VIP . Haga clic con el botón derecho y seleccione
Crear plantilla de VIP .
NOTE
SLB solo admite el equilibrio de carga de nivel 4 del tráfico TCP/UDP. No se admiten los protocolos HTTP / HTTPS.
5. Para Persistencia y Equilibrio de carga , use los valores predeterminados. Haga clic en Siguiente .
NOTE
SLB no admite la persistencia y diferentes métodos de equilibrio de carga. De forma predeterminada, SLB usa el
algoritmo Round Robin para el equilibrio de carga.
6. Opcionalmente, inserte los valores adecuados en Monitores de estado . Haga clic en Siguiente .
Opciones: TCP y HTTP se admiten como protocolos de monitor de estado si se usa SLB.
7. Compruebe la configuración y haga clic en Finalizar .
Una vez que se crea la plantilla, puede encontrar esto en Tejido > Plantillas de VIP .
NOTE
En la sección de parámetros de script, sustituya los valores reales que coinciden con su entorno de prueba por los
ejemplos que se usan en este script.
Asegúrese de ejecutar el script en un servidor VMM o en un equipo que ejecute la consola VMM.
param(
[Parameter(Mandatory=$false)]
# Name of the Network Controller Network Service
# This value should be the name you gave the Network Controller service
# when you on-boarded the Network Controller to VMM
$LBServiceName = "NC",
[Parameter(Mandatory=$false)]
# Name of the workload VMs you want to load balance.
$VipMemberVMNames = @("WGB-001","WGB-002"),
[Parameter(Mandatory=$false)]
# Name of the VIP VM Network
$VipNetworkName = "PublicVIP",
[Parameter(Mandatory=$false)]
# VIP address you want to assign from the VIP VM Network IP pool.
# Pick any VIP that falls within your VIP IP Pool range.
$VipAddress = "44.15.10.253",
[Parameter(Mandatory=$false)]
# The name of the VIP template you created via the VMM Console.
$VipTemplateName = "WebsiteHTTP",
[Parameter(Mandatory=$false)]
# Arbitrary but good to match the VIP you're using.
$VipName = "scvmm_44_15_10_253_80"
)
Import-Module virtualmachinemanager
$vipMemberNics = @();
foreach ($vmName in $VipMemberVMNames)
{
$vm = get-scvirtualmachine -Name $vmName;
# if ($vm.VirtualNetworkAdapters[0].VMNetwork.ID -ne $vipNetwork.ID)
# {
# $vm.VirtualNetworkAdapters[0] | set-scvirtualnetworkadapter -VMNetwork $vipNetwork;
# }
$vipMemberNics += $vm.VirtualNetworkAdapters[0];
}
$existingVip | remove-scloadbalancervip;
}
Script para crear una IP virtual para equilibrar la carga del tráfico de red interno
Para el siguiente script de ejemplo, se crea una nueva plantilla de IP virtual con el nombre ILB-VIP-Template para
el equilibrio de carga en el puerto 443, mediante el procedimiento detallado en la sección anterior. El script crea
a una IP virtual a partir de una red de máquinas virtuales de inquilino para equilibrar la carga de las máquinas
virtuales ILB-001 e ILB-002, que forman parte de la misma red de máquinas virtuales de inquilino.
Este script se puede usar para crear una VIP de equilibrio de carga que pase también la dirección VIP de IPv6.
NOTE
En el escenario de equilibrio de carga interno, la IP virtual procede de la red de máquinas virtuales de inquilino. Por
tanto, $VipNetworkName es el mismo nombre de red de máquinas virtuales de inquilino donde están conectadas
las máquinas virtuales. Asegúrese de que el grupo de IP de red de máquinas virtuales de inquilino tiene las direcciones
IP reservada para las IP virtuales. $VipAddress es una de las direcciones IP de las IP virtuales reservadas.
En la sección de parámetros de script, sustituya los valores reales que coinciden con su entorno de prueba por los
ejemplos que se usan en este script.
Asegúrese de ejecutar el script en un servidor VMM o en un equipo que ejecute la consola VMM.
param(
[Parameter(Mandatory=$false)]
# Name of the Network Controller Network Service
# This value should be the name you gave the Network Controller service
# when you on-boarded the Network Controller to VMM
$LBServiceName = "NC",
[Parameter(Mandatory=$false)]
# Name of the workload VMs you want to load balance.
$VipMemberVMNames = @("ILB-001","ILB-002"),
[Parameter(Mandatory=$false)]
# Name of the VIP VM Network
$VipNetworkName = "TenantNetwork",
[Parameter(Mandatory=$false)]
# VIP address you want to assign from the VIP VM Network IP pool.
# Pick any VIP that falls within your VIP IP Pool range.
$VipAddress = "192.168.100.75",
[Parameter(Mandatory=$false)]
# The name of the VIP template you created via the VMM Console.
$VipTemplateName = "ILB-VIP-Template",
[Parameter(Mandatory=$false)]
# Arbitrary but good to match the VIP you're using.
$VipName = "scvmm_192_168_100_75_443"
Import-Module virtualmachinemanager
$vipMemberNics = @();
foreach ($vmName in $VipMemberVMNames)
{
$vm = get-scvirtualmachine -Name $vmName;
# if ($vm.VirtualNetworkAdapters[0].VMNetwork.ID -ne $vipNetwork.ID)
# {
# $vm.VirtualNetworkAdapters[0] | set-scvirtualnetworkadapter -VMNetwork $vipNetwork;
# }
$vipMemberNics += $vm.VirtualNetworkAdapters[0];
}
$existingVip | remove-scloadbalancervip;
}
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar la traducción de direcciones de red (NAT) para el reenvío de tráfico
en una infraestructura de red definida por software (SDN) en el tejido de System Center Virtual Machine
Manager (VMM).
NAT permite que las máquinas virtuales en una red virtual aislada de SDN obtengan conectividad externa. VMM
configura una dirección IP virtual (VIP) para reenviar el tráfico hacia y desde una red externa.
Los dos tipos siguientes de NAT son compatibles con VMM.
NAT de salida : Reenvía el tráfico de la red de máquinas virtuales desde una red virtual a destinos externos.
NAT de entrada : Reenvía el tráfico externo a una máquina virtual específica de una red virtual.
En este artículo se proporciona información sobre cómo configurar una conexión NAT para redes virtuales de
SDN con VMM.
NOTE
Desde VMM 2019 UR1, el tipo de red Una conectada se ha cambiado a Red conectada
VMM 2019 UR2 y las versiones posteriores admiten IPv6.
Antes de comenzar
Asegúrese de lo siguiente:
Se implementan la Controladora de red SDN y el equilibrador de carga de software de SDN.
Se crea una red de máquinas virtuales de SDN con virtualización de red.
NOTE
Junto con la conexión NAT, este procedimiento también crea una regla NAT de salida predeterminada que habilita la
conectividad de salida para la red de máquinas virtuales.
Para habilitar la conectividad de entrada y reenviar el tráfico externo a una máquina virtual específica, debe agregar
reglas NAT a la conexión NAT.
NOTE
Pueden crearse varias reglas NAT para reenviar el tráfico a varias máquinas virtuales que forman parte de la red de
máquinas virtuales.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo enrutar el tráfico entre las redes de una infraestructura de redes definida por
software (SDN) configurada en el tejido de System Center Virtual Machine Manager (VMM).
Una puerta de enlace de RAS en SDN permite redirigir el tráfico entre redes físicas y virtuales, con
independencia de dónde estén ubicados los recursos. La puerta de enlace de RAS en SDN tiene el protocolo
Boarder Gateway Protocol (BGP) multiinquilino y compatible, además de admitir una conectividad a través de
una red privada virtual (VPN) sitio a sitio mediante IPsec, encapsulación de enrutamiento genérico (GRE) o
reenvío de capa tres. Obtenga más información.
NOTE
A partir de VMM 2019 UR1, el tipo One Connected network (Una red conectada) se ha cambiado a Red
conectada .
VMM 2019 UR2 y las versiones posteriores admiten IPv6.
Antes de comenzar
Asegúrese de lo siguiente:
Se implementan la Controladora de red SDN, el equilibrador de carga de software de SDN y la puerta de
enlace de RAS en SDN.
Se crea una red de máquinas virtuales de SDN con virtualización de red.
Ejecute el siguiente script para configurar el reenvío L3. Consulte la tabla anterior para comprobar qué identifica
cada parámetro de script.
param (
[Parameter(Mandatory=$true)]
# Name of the L3 VPN connection
$L3VPNConnectionName,
[Parameter(Mandatory=$true)]
# Name of the VM network to create gateway
$VmNetworkName,
[Parameter(Mandatory=$true)]
# Name of the Next Hop one connected VM network
# used for forwarding
$NextHopVmNetworkName,
[Parameter(Mandatory=$true)]
# IPAddresses on the local side that will be used
# for forwarding
# Format should be @("10.10.10.100/24")
$LocalIPAddresses,
[Parameter(Mandatory=$true)]
# IPAddresses on the remote side that will be used
# for forwarding
# Format should be @("10.10.10.200")
$PeerIPAddresses,
[Parameter(Mandatory=$false)]
# Subnet for the L3 gateway
# default value 10.254.254.0/29
$GatewaySubnet = "10.254.254.0/29",
[Parameter(Mandatory=$false)]
# List of subnets for remote tenants to add routes for static routing
# Format should be @("14.1.20.0/24","14.1.20.0/24");
$RoutingSubnets = @(),
[Parameter(Mandatory=$false)]
# Enable BGP in the tenant space
$EnableBGP = $false,
[Parameter(Mandatory=$false)]
# ASN number for the tenant gateway
# Only applicable when EnableBGP is true
$TenantASN = "0"
)
# Add all the required static routes to the newly created network connection interface
foreach($route in $RoutingSubnets)
{
Add-SCNetworkRoute -IPSubnet $route -RunAsynchronously -VPNConnection $vpnConnection -VMNetworkGateway
$VmNetworkGateway
}
NOTE
A partir de VMM 2019 UR1, el tipo One Connected network (Una red conectada) se ha cambiado a Red
conectada .
3. Cree un grupo de direcciones IP para esta red lógica. La dirección IP de este grupo es necesaria para
configurar el reenvío L3.
Siga los pasos que se indican a continuación para configurar el reenvío L3 :
NOTE
No se puede limitar el ancho de banda en la conexión VPN L3.
1. En la consola VMM, seleccione la red virtual de inquilino que desea conectar a la red física, a través de la
puerta de enlace L3.
2. Haga clic con el botón derecho en la red virtual de inquilino seleccionada y seleccione Propiedades >
Conectividad .
3. Seleccione Conectar con otra red a través de un túnel VPN . Opcionalmente, para habilitar el
emparejamiento BGP en su centro de datos, seleccione Habilitar a la configuración del protocolo
de puer ta de enlace de borde .
PA RÁ M ET RO DETA L L ES
Dirección IP del mismo nivel Dirección IP de la puerta de enlace de red física, accesible a
través de la red lógica L3. Esta dirección IP debe pertenecer
a la red lógica del próximo salto que creó en el requisito
previo. Esta dirección IP servirá como el próximo salto una
vez que el tráfico destinado a la red física desde la red de la
máquina virtual de inquilino llegue a la puerta de enlace
SDN. Debe ser una dirección IPv4. Puede haber varias
direcciones IP del mismo nivel y deben estar separadas por
comas.
PA RÁ M ET RO DETA L L ES
Si utiliza rutas estáticas, escriba todas las subredes remotas a las que desea conectarse en Rutas .
NOTE
Debe configurar las rutas en la red física para las subredes de red virtual de inquilino, con el próximo salto como la
dirección IP de la interfaz de L3 en la puerta de enlace SDN (dirección IP local usada en la creación de la conexión
de L3). Esto es para asegurarse de que el tráfico de retorno a la red virtual de inquilino se enrutó correctamente a
través de la puerta de enlace de SDN.
Si usa el protocolo de puerta de enlace de borde, asegúrese de que emparejamiento BGP entre la
dirección IP de la interfaz interna de la puerta de enlace de SDN (que está presente en un
compartimiento distinto en la máquina virtual de puerta de enlace, no el compartimiento
predeterminado) y el dispositivo del mismo nivel en la red física.
Para que BGP funcione, debe seguir estos pasos :
1. Agregue un protocolo de puerta de enlace de borde del mismo nivel para la conexión L3.
Introduzca el ASN, la dirección IP del protocolo de puerta de enlace de borde del mismo nivel y su
ASN en la página Protocolo de puer ta de enlace de borde .
2. Determine la dirección interna de la puerta de enlace de SDN, tal como se detalla en la sección
siguiente.
3. Cree un BGP del mismo nivel en el extremo remoto (puerta de enlace de red física). Al crear el
protocolo de puerta de enlace de borde del mismo nivel, use la dirección interna de la puerta de
enlace de SDN (determinada en el paso anterior) como la dirección IP del mismo nivel.
4. Configure una ruta en la red física que tenga como destino la dirección interna de la puerta de
enlace de SDN y como próximo salto la dirección IP de la interfaz L3 (el valor de la dirección IP
local usado al crear la conexión de L3).
NOTE
Después de configurar la conexión L3, debe configurar las rutas en la red física para las subredes de red virtual de
inquilino, con el próximo salto como la dirección IP de la interfaz de L3 en la puerta de enlace SDN (parámetro
LocalIpAddresses en el script). Esto es para asegurarse de que el tráfico de retorno a la red virtual de inquilino se enrutó
correctamente a través de la puerta de enlace de SDN.
Puede elegir configurar rutas estáticas o dinámicas (a través de BGP) con la conexión L3. Si usa rutas estáticas,
puede agregarlas mediante Add-SCNetworkRoute tal como se describe en el siguiente script.
Si usa BGP con conexión de túnel L3, debe establecer el emparejamiento BGP entre la dirección IP de la interfaz
interna de la puerta de enlace de SDN, que está presente en un compartimiento distinto en la VM de puerta de
enlace (no el compartimiento predeterminado) y el dispositivo del mismo nivel en la red física.
Para que BGP funcione, debe seguir los siguientes pasos:
1. Agregue BGP del mismo nivel para la conexión L3 mediante el cmdlet Add-SCBGPPeer .
Ejemplo: Add-SCBGPPeer -Name "peer1" -PeerIPAddress "12.13.14.15" -PeerASN 15 -
VMNetworkGateway $VmNetworkGateway
2. Determine la dirección interna de la puerta de enlace de SDN tal como se detalla en la siguiente sección.
3. Cree un BGP del mismo nivel en el extremo remoto (puerta de enlace de red física). Al crear el BGP del
mismo nivel, use la dirección interna de la puerta de enlace de SDN (determinada en el paso 2 anterior)
como la dirección IP del mismo nivel.
4. Configure una ruta en la red física que tenga como destino la dirección interna de la puerta de enlace de
SDN y como próximo salto la dirección IP de la interfaz L3 (parámetro LocalIPAddresses en el script).
Los resultados de este comando pueden mostrar varias puertas de enlace virtuales, dependiendo del número de
inquilinos que hayan configurado las conexiones de puerta de enlace. Cada puerta de enlace virtual puede tener
varias conexiones (IPSec, GRE, L3).
Como ya conoce la dirección IP de la interfaz de L3 (LocalIPAddresses) de la conexión, puede identificar la
conexión correcta en función de esa dirección IP. Cuando tenga la conexión de red correcta, ejecute el siguiente
comando (en la puerta de enlace virtual correspondiente) para obtener la dirección IP del enrutador BGP de la
puerta de enlace virtual
$gateway.Properties.BgpRouters.Properties.RouterIp
El resultado de este comando proporciona la dirección IP que se debe configurar en el enrutador remoto como
la dirección IP del mismo nivel.
NOTE
Los valores que se usan son solo ejemplos.
$t.PortEnd=5090
$t.PortStart=5080
$t.IpAddressStart=10.100.101.10
$t.IpAddressEnd=10.100.101.100
2. Configure el selector de tráfico anterior mediante el parámetro -LocalTrafficSelectors de Add-
SCVPNConnection o Set-SCVPNConnection .
Configuración de clústeres invitados en SDN
mediante VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se explica cómo configurar los clústeres invitados en SDN con System Center Virtual Machine
Manager (VMM).
VMM era compatible con los clústeres invitados. Sin embargo, con la llegada de la controladora de red,
Windows Server 2016 y System Center 2016, la configuración de los clústeres invitados experimentó algunos
cambios.
Con la introducción de la controladora de red, las máquinas virtuales que están conectadas a la red virtual solo
pueden usar la dirección IP que el controlador de red asigna para la comunicación. La controladora de red no
admite las direcciones IP flotantes que son fundamentales para que tecnologías como los clústeres de
conmutación por error de Microsoft funcionen.
Con VMM 1801 y versiones posteriores, puede habilitar esta característica mediante la emulación de la
funcionalidad de dirección IP flotante a través del equilibrador de carga de software (SLB) en SDN.
VMM 1801 y versiones posteriores admiten los clústeres invitados en SDN a través de una IP virtual (VIP) del
equilibrador de carga interno (ILB). El equilibrador de carga interno usa los puertos de sondeo que se crean en
las máquinas virtuales del clúster invitado para identificar el nodo activo. En un momento dado, el puerto de
sondeo del nodo activo responde al equilibrador de carga interno y enruta todo el tráfico dirigido a la dirección
IP virtual en el nodo activo.
Antes de empezar
Asegúrese de cumplir los siguientes requisitos previos:
Los clústeres invitados se administran con la controladora de red de SDN. Asegúrese de haber configurado SDN
y que implementó una controladora de red y SLB.
NOTE
El clúster debe tener un parámetro ProbePort establecido en un puerto de su preferencia. Ese puerto es necesario
cuando se configura la plantilla de VIP en el paso siguiente. Anote la dirección IP reservada que usa para este
clúster. Esta dirección IP se le pedirá más adelante cuando cree una VIP con la plantilla de VIP.
2. Cree una plantilla de dirección IP virtual. En la consola de VMM > Tejido > Redes > Plantillas de VIP ,
haga clic con el botón derecho y seleccione Add VIP Template (Agregar plantilla de VIP).
En Tipo , seleccione Controladora de red de Microsoft .
En Monitor de estado , agregue el sondeo que se usará en las máquinas virtuales de clúster
invitado. Aquí debe agregar el mismo puerto que se configuró mientras se agrupaban los hosts en
el paso anterior.
3. Con PowerShell, cree una dirección IP virtual con la plantilla correspondiente.
NOTE
Como se explica en el principio de este artículo, se está implementando una VIP de equilibrador de carga interno
para admitir una agrupación en clústeres de invitados. El script de PowerShell para crear una VIP desde la plantilla
de VIP para equilibrar la carga del tráfico de la red interna se proporciona a continuación.
Use este script de ejemplo para crear una VIP y equilibrar la carga de la red interna. Modifique los
parámetros según sea necesario, en función de los siguientes detalles:
LBServiceName: nombre del servicio del controlador de red
VipMemberNames: nombres de las máquinas virtuales del clúster
VipNetworkName: nombre de la red de inquilinos
VipAddress: la dirección IP reservada de la red de inquilinos que se utilizó en el paso 2 como dirección
IP para el clúster de máquina virtual
VipTemplateName: nombre de la plantilla de VIP creada en el paso 3, anteriormente
VipName: cualquier nombre descriptivo que desee utilizar para hacer referencia a la VIP
Actualización del certificado de servidor del
controlador de red
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
El controlador de red usa un certificado para la comunicación de Northbound con los clientes REST (por
ejemplo, VMM) y la comunicación de Southbound con hosts de Hyper-V y equilibradores de carga de software.
Puede cambiar o actualizar este certificado en los escenarios siguientes después de implementar el controlador
de red.
El certificado ha expirado.
Quiere pasar de un certificado autofirmado a un certificado emitido por una entidad de certificación (CA).
NOTE
Si renueva el certificado existente con la misma clave, estos pasos no son necesarios.
Antes de empezar
Asegúrese de crear un nuevo certificado SSL con un nombre REST del controlador de red existente. Más
información.
NOTE
NO quite el certificado actual de los nodos de controlador de red. Debe validar el certificado actualizado antes de
quitar el ya existente. Siga con el resto de los pasos para completar el asistente.
3. Actualice el certificado de servidor ejecutando el siguiente comando de PowerShell en uno de los nodos
de controlador de red.
$certificate = Get-ChildItem -Path Cert:\LocalMachine\My | Where {$_.Thumbprint -eq “Thumbprint of
new certificate”}
Set-NetworkController -ServerCertificate $certificate
4. Actualice el certificado usado para cifrar las credenciales almacenadas en el controlador de red
ejecutando el siguiente comando en uno de los nodos de controlador de red.
5. Recupere un recurso de REST de servidor ejecutando el siguiente comando de PowerShell en uno de los
nodos de controlador de red.
"Connections":
{
{
"ManagementAddresses":[ “contoso.com" ],
"CredentialType": "X509Certificate",
"Protocol": null,
"Port": null,
"Credential": {
"Tags": null,
"ResourceRef": "/credentials/<credential resource Id>,
"InstanceId": "00000000-0000-0000-0000-000000000000",
…
…
}
}
}
7. Actualice el recurso de REST de credencial de tipo X509Cer tificate recuperado anteriormente con la
huella digital del nuevo certificado.
Ejecute estos cmdlet de PowerShell en cualquier nodo de controlador de red.
$cred=New-Object Microsoft.Windows.Networkcontroller.credentialproperties
$cred.type="X509Certificate"
$cred.username=""
$cred.value="<thumbprint of the new certificate>"
New-NetworkControllerCredential -ConnectionUri <REST uri of the deployment> -ResourceId <credential
resource Id> -Properties
$cred
Pasos siguientes
Valide la implementación de controlador de red para garantizar que la implementación sea correcta.
Configuración de direcciones IP virtuales del
equilibrador de carga interno a través de plantillas
de servicio de VMM
21/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Las redes definidas por software en Windows 2016 pueden utilizar el equilibrio de carga de software para
distribuir uniformemente el tráfico de red entre las cargas de trabajo administradas por el proveedor de
servicios y los inquilinos. VMM 2016 solo admite la implementación de direcciones IP virtuales de equilibrio de
carga de software con PowerShell.
System Center Virtual Machine Manager (VMM) 1801 y versiones posteriores admiten la configuración de
direcciones IP virtuales de equilibrio de carga de software al implementar aplicaciones multinivel mediante el
uso de plantillas de servicio y también el equilibrio de carga tanto público como interno.
Antes de empezar
Asegúrese de que se cumplen los siguientes requisitos previos:
Implementación de la controladora de red de las redes definidas por software
Implementación del equilibrador de carga de software de las redes definidas por software
En Resumen , confirme la configuración y haga clic en Finalizar para crear la plantilla de dirección
IP virtual.
3. Configuración de una dirección IP virtual de equilibrio de carga de software al implementar el servicio
Si la plantilla de servicio no está abierta, haga clic en Biblioteca > Plantillas > Plantillas de
ser vicio y ábrala.
Haga clic en Acciones > Abrir diseñador .
En el Diseñador de plantilla de ser vicio , haga clic en el grupo Componentes de plantilla
de ser vicio > Agregar equilibrador de carga .
Haga clic en el objeto del equilibrador de carga. Lo identificará con el nombre de la plantilla de VIP.
Haga clic en Herramienta > Conector . Haga clic en la conexión de servidor asociada con la
plantilla y, después, haga clic en un objeto NIC para conectar el equilibrador de carga al adaptador.
En las propiedades de NIC , compruebe los tipos de direcciones y asegúrese de que la dirección
MAC sea estática.
Tenga en cuenta que la conexión del servidor debe estar conectada a la interfaz de red de back-end
del servicio. La interfaz de red back-end puede estar conectada a una red de máquina virtual
conectada o a una red virtualizada de red de máquina virtual.
Con el conector habilitado, haga clic en la conexión de cliente asociada con el equilibrio de carga y,
después, haga clic en un objeto de red lógica.
NOTE
La conexión de cliente debe estar conectada a una red front-end del equilibrador de carga. Puede ser una
red de máquina virtual pública o una red virtualizada de red de máquina virtual. Una red virtualizada de
red de máquina virtual se usa para escenarios de equilibrio de carga internos.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe el proceso de copia de seguridad y recuperación de una infraestructura de red
definida por software (SDN) en un tejido de System Center Virtual Machine Manager (VMM) y se proporcionan
las recomendaciones aplicables para completar el proceso.
Para hacer copias de seguridad y restaurar una SDN, debe hacer una copia de seguridad y restaurar la
controladora de red (CN) que se implementa en la SDN. Use los procedimientos siguientes que se explican en la
secuencia.
NOTE
Elimine solo la instancia de servicio de la controladora de red. No quite la controladora de red de Tejido >
Ser vicios de red .
2. Asegúrese de que se quita el registro DNS de la controladora de red de DNS.
3. Implemente una instancia de servicio de controladora de red nueva para VMM con la misma
configuración de implementación de servicio que se usó para la implementación de la instancia de
servicio original. Más información.
4. Compruebe que el trabajo de implementación se ha realizado correctamente.
NOTE
En VMM 2016 UR3 hay cmdlets de actualización para actualizar los objetos de controladora de red.
Si la controladora de red contiene algún objeto que no está presente en la base de datos de VMM, VMM no se
actualizará (incluso si esos objetos se crearon con VMM anteriormente). Elimine esos objetos de la controladora de red
y vuelva a crearlos desde VMM para administrar de nuevo estos objetos desde VMM.
foreach($portACL in $portACLs)
{
Read-SCPortACL -PortACL $portACL
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar redes lógicas
1. Obtenga todas las redes lógicas administradas por la controladora de red del servidor VMM mediante el
siguiente cmdlet:
2. Ejecute el cmdlet Read-SCLogicalNetwork en todas las redes lógicas administradas por la controladora
de red para la actualización.
foreach($logicalNetwork in $logicalNetworks)
{
Read-SCLogicalNetwork -LogicalNetwork $logicalNetwork
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar las puertas de enlace y MUX de equilibrador de carga
1. Obtenga todas las puertas de enlace y MUX de equilibrador de carga mediante el siguiente cmdlet:
foreach($fabricRoleResource in $fabricRoleResources)
{
Read-SCFabricRoleResource -FabricResource $fabricRoleResource
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar las conexiones y reglas de NAT
1. Obtenga todas las conexiones NAT mediante el siguiente cmdlet:
$vmNetworks = Get-SCVMNetwork | Where-Object {$_.NetworkManager.Model -eq 'Microsoft Network
Controller' -and $_.IsolationType -eq 'WindowsNetworkVirtualization'}
$natConnections = @()
foreach($vmNetwork in $vmNetworks)
{
$natConnections += $vmNetwork.NATConnections
}
$natConnections
2. Ejecute el cmdlet Read-SCNATConnection para actualizar las conexiones y las reglas de NAT.
foreach($natConnection in $natConnections)
{
Read-SCNATConnection -NATConnection $natConnection
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar todas las IP virtuales del equilibrador de carga
1. Obtenga las IP virtuales del equilibrador de carga configuradas en la controladora de red mediante el
siguiente cmdlet:
foreach($loadBalancerVIP in $loadBalancerVIPs)
{
Read-SCLoadBalancerVIP -LoadBalancerVIP $loadBalancerVIP
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar redes de máquina virtual
1. Obtenga todas las redes de máquinas virtuales HNV administradas por la controladora de red del
servidor VMM mediante el siguiente cmdlet:
2. Ejecute el cmdlet Read-SCVMNetwork en todas las redes de máquina virtual para la actualización.
foreach($VMNetwork in $VMNetworks)
{
Read-SCVMNetwork -VMNetwork $VMNetwork
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar grupos de puerta de enlace
1. Obtenga el rol de tejido de puerta de enlace desde el servidor VMM mediante el siguiente cmdlet:
foreach($fabricRole in $gatewayFabricRole )
{
Read-SCFabricRole -FabricRole $fabricRole
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Actualizar puertas de enlace de red de máquina virtual
1. Obtenga todas las puertas de enlace de red de máquina virtual configuradas para las redes de máquina
virtual mediante el cmdlet siguiente:
foreach($VMNetworkGateway in $VMNetworkGateways)
{
Read-SCVMNetworkGateway -VMNetworkGateway $VMNetworkGateway
}
3. Compruebe el estado del resultado en el registro de los trabajos de VMM y siga las recomendaciones del
registro en caso de error.
Eliminación de una red definida por software (SDN)
del tejido de VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Para quitar una SDN del tejido de System Center Virtual Machine Manager (VMM), debe quitar los siguientes
objetos (en el orden especificado):
Redes de VM (asociadas a las redes lógicas administradas por NC).
Redes lógicas (administradas por NC).
Equilibrador de carga de software (si se ha implementado o implementado y configurado).
Puerta de enlace (si se ha implementado o implementado y configurado).
Controladora de red (si se ha implementado o implementado y configurado).
1. Haga clic en VM y ser vicios > Redes de VM y seleccione la red de máquina virtual que quiera quitar.
2. Haga clic con el botón derecho en la red de VM y haga clic en Eliminar .
3. Repita los pasos 1 y 2 para cada red de VM que quiera quitar.
1. Haga clic en Tejido > Redes lógicas y seleccione la red lógica que quiera quitar.
2. Haga clic con el botón derecho en la red lógica y haga clic en Quitar .
3. Repita los pasos 1 y 2 para cada red lógica que quiera quitar.
NOTE
Las redes lógicas asociadas con el SLB no se pueden quitar de la consola. Use Forzar eliminación para quitarlas (mediante
la marca -Force ).
1. Haga clic en Tejido > Ser vicios de red y seleccione la controladora de red.
2. Haga clic con el botón derecho en el NC y haga clic en Quitar .
Esta acción quita el servicio del NC. Asegúrese de que se haya completado el trabajo. Si se produce un
error en el trabajo, reinícielo después de aplicar los cambios necesarios que detalla el mensaje de error.
Administrar recursos de SDN en el tejido de VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se resumen las operaciones de la red definida por software (SDN) que se pueden administrar en
el tejido de System Center Virtual Machine Manager (VMM). En el caso de las operaciones que no se pueden
administrar en el tejido, debe usar API de REST o PowerShell de Windows Server.
Una red definida por software (SDN) extrae la infraestructura de red del hardware físico en redes virtuales. En el
tejido de VMM puede implementar y administrar una infraestructura de SDN, incluidos la controladora de red,
los equilibradores de carga de software y las puertas de enlace, para aprovisionar y administrar redes virtuales
a escala. Más información.
PublicIPAddress Especifica una dirección IP que está VMM lo sobrescribe si se habilitan los
disponible públicamente. valores predeterminados
virtualGateways y loadBalancers lo
usan para indicar la dirección IP que se
puede usar para comunicarse con la
red virtual desde fuera.
VirtualGatewayBgpPeer Configura los pares BGP del recurso VMM lo sobrescribe si se habilitan los
virtualGateways. valores predeterminados
O B JETO C O N O C IDO DETA L L ES M O DIF IC A R
VirtualNetwork Se usa para crear una red virtual con VMM lo sobrescribe si se habilitan los
HNV para superposiciones de valores predeterminados
inquilinos.
VirtualSubnet Se usa para crear subredes virtuales VMM lo sobrescribe si se habilitan los
(VSID) en la red virtual del inquilino valores predeterminados
(RDID).
máquina virtual Se corresponde con una máquina VMM lo sobrescribe si se habilitan los
virtual. valores predeterminados
Recursos desconocidos
Estos recursos se crean y se administran fuera del tejido de VMM. VMM no los conoce y, obviamente, no los
sobrescribe cuando se configuran fuera de la consola VMM.
Los objetos desconocidos son todos los recursos de la controladora de red que no aparecen en la tabla anterior.
Obtenga la lista más reciente de recursos de SDN.
Administrar Espacios de almacenamiento directo en
VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información general sobre cómo se implementa Espacios de almacenamiento
directo (S2D) en el tejido de System Center Virtual Machine Manager (VMM).
Espacios de almacenamiento directo (S2D) se introdujo en Windows Server 2016. Agrupa unidades de
almacenamiento físico en grupos de almacenamiento virtual para proporcionar almacenamiento virtualizado.
Con el almacenamiento virtualizado puede:
Administrar varios orígenes de almacenamiento físico como una entidad virtual única.
Obtener almacenamiento económico, con y sin dispositivos de almacenamiento externos.
Reunir diferentes tipos de almacenamiento en un único grupo de almacenamiento virtual.
Aprovisionar el almacenamiento fácilmente y expandir el almacenamiento virtualizado a petición mediante la
adición de nuevas unidades.
NOTE
VMM 2019 UR3 y las versiones posteriores admiten Azure Stack HCl (versión 20H2).
¿Cómo funciona?
S2D crea grupos de almacenamiento a partir de almacenamiento que se adjunta a nodos específicos en un
clúster de Windows Server. El almacenamiento puede ser interno del nodo, o de dispositivos de disco que están
conectados directamente a un único nodo. Entre las unidades de almacenamiento compatibles se incluyen
NVMe, SSD conectado a través de SATA o SAS, y unidades de disco duro. Más información.
Cuando se habilita S2D en un clúster de Windows Server, S2D detecta automáticamente el almacenamiento
apto y lo agrega a un grupo de almacenamiento para el clúster.
S2D también crea una caché de almacenamiento del lado servidor integrada para maximizar el rendimiento.
Las unidades de disco más rápidas se usan para el almacenamiento en caché y el resto de unidades para la
capacidad. Más información sobre la caché.
Los volúmenes se crean a partir de un grupo de almacenamiento. Cuando se crea un volumen, se crea el
disco virtual (espacio de almacenamiento), se crean particiones en él y se formatea, se agrega al clúster y se
convierte en un volumen compartido de clúster (CSV).
Puede configurar distintos niveles de tolerancia a errores para un volumen a fin de especificar la forma en
que los discos virtuales se reparten entre los discos físicos del grupo, con SMB 3.0. Puede configurar un
volumen sin resistencia, o bien con resistencia de reflejo o paridad. Más información.
Pasos siguientes
Implementar un clúster de S2D hiperconvergido
Implementar un clúster hiperconvergido de Espacios
de almacenamiento directo en VMM
19/08/2021 • 9 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para configurar un clúster hiperconvergido que ejecuta Espacios de almacenamiento directo
(S2D) en System Center - Virtual Machine Manager (VMM). Obtenga más información sobre S2D.
Puede implementar un clúster de S2D hiperconvergido si aprovisiona un clúster de Hyper-V y habilita S2D
desde hosts de Hyper-V existentes, o mediante el aprovisionamiento desde servidores sin sistema operativo.
Actualmente, no se puede habilitar S2D en una implementación hiperconvergida en un clúster de Hyper-V
implementado desde equipos sin sistema operativo con el sistema operativo Nano.
NOTE
Antes de agregar el proveedor de almacenamiento a VMM, debe habilitar S2D. Para habilitar S2D, vaya a Configuración
general > Especifique el nombre de clúster y el grupo host y seleccione la opción Habilitar Espacios de
almacenamiento directo , como se muestra a continuación:
Después de habilitar un clúster con S2D, VMM hace lo siguiente:
1. Se habilita el rol de servidor de archivos y la característica de clústeres de conmutación por error.
2. Se habilitan Réplica de almacenamiento y Desduplicación de datos.
3. Opcionalmente, se valida y se crea el clúster.
4. Se habilita S2D y se crea una matriz de almacenamiento con el mismo nombre que se proporciona en el
asistente.
Si usa PowerShell para crear un clúster hiperconvergido, el grupo y la capa de almacenamiento se crean
automáticamente con la opción Enable-ClusterS2D autoconfig=true .
Antes de empezar
Asegúrese de que se está ejecutando VMM 2016 o una versión posterior.
Los hosts de Hyper-V de un clúster deben ejecutar Windows Server 2016 o posterior con el rol de Hyper-V
instalado y configurado para hospedar máquinas virtuales.
NOTE
VMM 2019 UR3 y las versiones posteriores admiten Azure Stack HCl (versión 20H2).
Después de que estos requisitos previos estén en vigor, se aprovisiona un clúster y se configuran recursos de
almacenamiento en él. Después, puede implementar máquinas virtuales en el clúster o exportar el
almacenamiento a otros recursos mediante SOFS.
NOTE
Por lo general, el nodo S2D requiere la configuración de RDMA, QOS y SET. Para configurar estas opciones en un nodo
con equipos sin sistema operativo, puede usar la funcionalidad del script posterior a la implementación de los perfiles de
equipo físico. A continuación se detalla un ejemplo de script posterior a la implementación de los perfiles de equipo físico.
También puede usar este script para configurar RDMA, QoS y SET al agregar un nodo nuevo a una implementación
existente de S2D desde equipos sin sistema operativo.
1. Lea los requisitos previos para la implementación de clúster sin sistema operativo. Tenga en cuenta que:
El VHD o VHDX generalizado de la biblioteca VMM debe ejecutar Windows Server 2016 con las
actualizaciones más recientes. Deben establecerse los valores Sistema operativo y Plataforma de
vir tualización para el disco duro.
Para la implementación sin sistema operativo tiene que agregar un servidor de entorno de ejecución
previo al arranque (PXE) al tejido de VMM. El servidor PXE se proporciona a través de Servicios de
implementación de Windows. VMM usa su propia imagen de WinPE, y tiene que asegurarse de que
sea la versión más reciente. Para ello, haga clic en Tejido > Infraestructura > Actualizar imagen
de WinPE y asegúrese de que finalice el trabajo.
2. Siga las instrucciones para el aprovisionamiento de un clúster desde equipos sin sistema operativo.
Recomendaciones
Si tiene vNIC implementadas, para obtener un rendimiento óptimo, se recomienda asignar todas las vNIC
a las pNIC correspondientes. El sistema operativo establece aleatoriamente las afinidades entre vNIC y
pNIC, y puede haber escenarios en los que se asignen varias vNIC a la misma pNIC. Para evitar estos
escenarios, se recomienda establecer manualmente la afinidad entre vNIC y pNIC siguiendo los pasos
indicados aquí.
Cuando cree un perfil de puerto de adaptador de red, le recomendamos que permita la prioridad de
IEEE . Más información. También puede establecer la prioridad de IEEE mediante los siguientes comandos
de PowerShell:
Antes de empezar
Asegúrese de lo siguiente:
1. Está ejecutando VMM 2016 o una versión posterior.
2. Los hosts de Hyper-V del clúster están ejecutando Windows Server 2016 o posterior con el rol de Hyper-
V instalado y configurado para hospedar máquinas virtuales.
NOTE
Puede establecer la configuración de DCB tanto en el clúster de S2D de Hyper-V (hiperconvergido) como en el
clúster de S2D de SOFS (desagregado).
Puede definir la configuración de DCB durante el flujo de trabajo de creación del clúster o en un clúster
existente.
No se puede definir la configuración de DCB durante la creación del clúster de SOFS, solo se puede configurar
en un clúster de SOFS existente. Todos los nodos del clúster de SOFS los debe administrar VMM.
La configuración de DCB durante la creación del clúster solo se admite cuando este se crea con un servidor
Windows existente. No se admite con el flujo de trabajo de implementación de sistema operativo o de
reconstrucción completa.
NOTE
Los valores predeterminados se asignan a Prioridad y Ancho de banda. Personalice estos valores en función de las
necesidades del entorno de su organización.
Valores predeterminados:
C L A SE DE T RÁ F IC O P RIO RIT Y A N C H O DE B A N DA ( % )
Latido de clúster 7 1
SMB directo 3 50
4. Seleccione los adaptadores de red que se usan para el tráfico de almacenamiento. RDMA está habilitado
en estos adaptadores de red.
NOTE
En un escenario de NIC convergido, seleccione las vNIC de almacenamiento. Las pNIC subyacentes debe ser
compatibles con RDMA para que las vNIC se muestren y estén disponibles para seleccionarse.
5. Revise el resumen y seleccione Finalizar .
Se creará un clúster de S2D y los parámetros de DCB se configurarán en todos los nodos de S2D.
NOTE
La configuración de DCB puede definirse en los clústeres de S2D de Hyper-V existentes; para ello, visite la
página Propiedades del clúster y vaya a la página Configuración de DCB .
Cualquier cambio fuera de banda en la configuración de DCB en cualquiera de los nodos hará que el clúster de
S2D no sea compatible con VMM. Se proporcionará una opción de corrección en la página de Configuración
de DCB de las propiedades del clúster, que se puede usar para aplicar la configuración de DCB establecida en
VMM en los nodos del clúster.
6. Haga clic en Configurar ajustes avanzados de almacenamiento y niveles para configurar estas
opciones.
7. En Resumen , compruebe la configuración y finalice el asistente. Se creará automáticamente un disco
virtual cuando cree el volumen.
Si usa PowerShell, el grupo y la capa de almacenamiento se crean automáticamente con la opción Enable-
ClusterS2D autoconfig=true .
Pasos siguientes
Aprovisionar las máquinas virtuales
Administración del clúster
Implementación y administración de clústeres de
Azure Stack HCI en VMM
19/08/2021 • 9 minutes to read
En este artículo se proporciona información sobre cómo configurar un clúster de Azure Stack HCI, versión 20H2,
en System Center-Virtual Machine Manager (VMM) 2019 UR3 y versiones posteriores. Puede implementar un
clúster de Azure Stack HCI mediante el aprovisionamiento desde servidores sin sistema operativo.
IMPORTANT
Los clústeres de Azure Stack HCI administrados por Virtual Machine Manager no deben unirse aún al canal de versión
preliminar. System Center 2019 (incluidos Virtual Machine Manager, Operations Manager y otros componentes) aún no
admite esta versión preliminar. Consulte el blog de System Center para ver las novedades más recientes.
Antes de comenzar
Asegúrese de que se está ejecutando VMM 2019 UR3 o una versión posterior.
¿Qué se admite?
La adición, creación y administración de clústeres de Azure Stack HCI. Consulte los pasos detallados para
crear y administrar clústeres de HCI.
La capacidad de aprovisionar e implementar máquinas virtuales en los clústeres de Azure Stack HCI y
realizar operaciones de ciclo de vida de la máquina virtual. Las máquinas virtuales se pueden
aprovisionar utilizando archivos VHD o plantillas o a partir de una máquina virtual existente. Más
información.
La configuración de la red basada en VLAN en los clústeres de Azure Stack HCI.
La implementación y administración de la controladora de red de SDN en clústeres de Azure Stack HCI.
La administración de la configuración del grupo de almacenamiento, la creación de discos virtuales, la
creación de volúmenes compartidos de clúster (CSV) y la aplicación de ajustes de QoS.
Los cmdlets de PowerShell que se usan para administrar los clústeres de Windows Server también se
pueden usar para administrar los clústeres de Azure Stack HCI.
¿Qué no se admite?
Actualmente no se admite la administración de clústeres extendidos de Azure Stack HCI en VMM.
Dado que Azure Stack HCI está pensado como host de virtualización en el que se ejecutan todas las
cargas de trabajo de las máquinas virtuales, los términos de Azure Stack HCI le permiten ejecutar solo lo
necesario para hospedar máquinas virtuales. Los clústeres de Azure Stack HCI no deben utilizarse para
otros fines, como servidores WSUS, servidores WDS o servidores de biblioteca. Consulte Casos de uso
de Azure Stack HCI, Cuándo usar Azure Stack HCI y Roles que se pueden ejecutar sin virtualización.
No se admite la migración en vivo de máquinas virtuales entre cualquier versión de Windows Server y
clústeres de Azure Stack HCI.
La migración de red desde Windows Server 2019 al clúster de Azure Stack HCI funcionará, así como la
migración de una máquina virtual sin conexión (apagada). VMM realiza la operación de exportación e
importación aquí.
NOTE
Debe habilitar S2D al crear un clúster de Azure Stack HCI. Para habilitar S2D, en el Asistente para la creación del clúster,
vaya a Configuración general y, en Especifique el nombre de clúster y el grupo host , seleccione Habilitar
Espacios de almacenamiento directo , como se muestra a continuación:
NOTE
Al configurar el clúster, seleccione la opción Habilitar Espacios de almacenamiento directo en la página
Configuración general del Asistente para la creación de clúster de Hyper-V .
En Tipo de recurso , seleccione Ser vidores existentes que ejecutan un sistema operativo Windows Ser ver
y seleccione los hosts de Hyper-V para agregarlos al clúster.
Todos los hosts seleccionados deben tener el sistema operativo Azure Stack HCI instalado.
Dado que S2D está habilitado, se debe validar el clúster.
NOTE
Por lo general, el nodo S2D requiere la configuración de RDMA, QOS y SET. Para configurar estas opciones en un nodo
con equipos sin sistema operativo, puede usar la funcionalidad del script posterior a la implementación de los perfiles de
equipo físico. A continuación se detalla un ejemplo de script posterior a la implementación de los perfiles de equipo físico.
También puede usar este script para configurar RDMA, QoS y SET al agregar un nodo nuevo a una implementación
existente de S2D desde equipos sin sistema operativo.
1. Lea los requisitos previos para la implementación de clúster sin sistema operativo. Tenga en cuenta que:
El VHD o VHDX generalizado de la biblioteca VMM debe ejecutar Azure Stack HCI con las
actualizaciones más recientes. Deben establecerse los valores Sistema operativo y Plataforma de
vir tualización para el disco duro.
Para la implementación sin sistema operativo tiene que agregar un servidor de entorno de ejecución
previo al arranque (PXE) al tejido de VMM. El servidor PXE se proporciona a través de Servicios de
implementación de Windows. VMM usa su propia imagen de WinPE, y tiene que asegurarse de que
sea la versión más reciente. Para ello, haga clic en Tejido > Infraestructura > Actualizar imagen
de WinPE y asegúrese de que finalice el trabajo.
2. Siga las instrucciones para el aprovisionamiento de un clúster desde equipos sin sistema operativo.
Recomendaciones
Si tiene vNIC implementadas, para obtener un rendimiento óptimo, se recomienda asignar todas las vNIC
a las pNIC correspondientes. El sistema operativo establece aleatoriamente las afinidades entre vNIC y
pNIC, y puede haber escenarios en los que se asignen varias vNIC a la misma pNIC. Para evitar estos
escenarios, se recomienda establecer manualmente la afinidad entre vNIC y pNIC siguiendo los pasos
indicados aquí.
Cuando cree un perfil de puerto de adaptador de red, le recomendamos que permita la prioridad de
IEEE . Más información.
También puede establecer la prioridad de IEEE mediante los siguientes comandos de PowerShell:
Valores predeterminados:
C L A SE DE T RÁ F IC O P RIO RIT Y A N C H O DE B A N DA ( % )
Latido de clúster 7 1
SMB directo 3 50
4. Seleccione los adaptadores de red que se usan para el tráfico de almacenamiento. RDMA está habilitado
en estos adaptadores de red.
NOTE
En un escenario de NIC convergido, seleccione las vNIC de almacenamiento. Las pNIC subyacentes debe ser
compatibles con RDMA para que las vNIC se muestren y estén disponibles para seleccionarse.
5. Revise el resumen y seleccione Finalizar .
Se creará un clúster de Azure Stack HCI y los parámetros de DCB se configurarán en todos los nodos de
S2D.
NOTE
La configuración de DCB puede definirse en los clústeres de S2D de Hyper-V existentes; para ello, visite la
página Propiedades del clúster y vaya a la página Configuración de DCB .
Cualquier cambio fuera de banda en la configuración de DCB en cualquiera de los nodos hará que el clúster de
S2D no sea compatible con VMM. Se proporcionará una opción de corrección en la página de Configuración
de DCB de las propiedades del clúster, que se puede usar para aplicar la configuración de DCB establecida en
VMM en los nodos del clúster.
IMPORTANT
Si el clúster de Azure Stack HCI no está registrado en Azure o no está conectado a Azure durante más de 30 días después
del registro, la creación de una máquina virtual de alta disponibilidad (HAVM) se bloqueará en el clúster. Consulte los
pasos 4 y 5 para el registro del clúster.
Pasos siguientes
Aprovisionar las máquinas virtuales
Administración del clúster
Implementar un clúster desagregado de Espacios de
almacenamiento directo en VMM
21/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para configurar un clúster desagregado que ejecuta Espacios de almacenamiento directo (S2D)
en System Center - Virtual Machine Manager (VMM). Obtenga más información sobre S2D.
Puede implementar un clúster de S2D desagregado mediante el aprovisionamiento de un clúster que ejecute
hosts de Hyper-V y un clúster de almacenamiento independiente que ejecute un servidor de archivos de
escalabilidad horizontal (SOFS) con S2D.
NOTE
Antes de agregar el proveedor de almacenamiento a VMM, debe habilitar S2D. Para habilitar S2D, vaya a Configuración
general > Especifique el nombre de clúster y el grupo host y seleccione la opción Habilitar Espacios de
almacenamiento directo , como se muestra a continuación:
3. En Tipo de recurso , especifique la cuenta de ejecución con permisos de administrador local en los
servidores que quiera agregar al clúster y especifique si quiere agregar servidores de Windows
existentes o equipos sin sistema operativo.
4. En Nodos de clúster , defina una lista de equipos que se van a agregar al clúster.
5. En Resumen , confirme la configuración y, luego, haga clic en Finalizar .
Si quiere agregar nodos adicionales al clúster SOFS, VMM detecta automáticamente todos los discos asociados
al nodo. Cuando se modifica un grupo de almacenamiento y se seleccionan los nuevos discos que se van a
agregar, VMM hace que esos discos estén disponibles para los hosts y las máquinas virtuales que usan el
recurso compartido compatible con ese grupo. Obtenga más información sobre cómo agregar nodos a un
SOFS.
Agregar un clúster SOFS existente con S2D habilitado
1. Haga clic en Tejido > Agregar recursos > Dispositivos de almacenamiento .
2. En el Asistente para agregar recursos, seleccione Ser vidor de archivos basado en Windows .
3. En Ámbito de detección , especifique la dirección IP del clúster o el nombre de dominio completo.
Proporcione una cuenta de ejecución con acceso al clúster y especifique si el clúster está en un dominio
diferente.
4. En Dispositivo de almacenamiento , seleccione el SOFS que se va a agregar al tejido de VMM. Solo debe
asignar una clasificación al grupo después de agregar el proveedor.
5. En Resumen , compruebe la configuración y complete el asistente.
Pasos siguientes
Aprovisionar las máquinas virtuales
Administración del clúster
Administrar clústeres de Espacios de
almacenamiento directo
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se explica cómo administrar clústeres de Espacios de almacenamiento directo (S2D) en el tejido
de System Center Virtual Machine Manager (VMM).
NOTE
Normalmente, el nodo S2D requiere la configuración de acceso directo a memoria remota (RDMA), Calidad de servicio
(QoS) y Switch Embedded Teaming (SET). Para configurar estas opciones en un nodo mediante equipos sin sistema
operativo, puede usar la funcionalidad del script posterior a la implementación del perfil de equipo físico (PCP). Aquí se
detalla un ejemplo de script posterior a la implementación del perfil de equipo físico. También puede usar este script para
configurar RDMA, QoS y SET al agregar un nodo nuevo a una implementación existente de S2D desde equipos sin
sistema operativo.
Cuando se agrega un nuevo nodo en un clúster hiperconvergido, VMM detecta automáticamente los discos
del nuevo nodo y habilita S2D.
VMM deshabilita el modo de mantenimiento en los discos antes de agregarlos.
Con la llegada de las redes convergidas, las organizaciones usan Ethernet como una red convergida para su
administración y el tráfico de almacenamiento. Es importante que las redes Ethernet sean compatibles con un
nivel similar de rendimiento y ausencia de pérdida en comparación con las redes de canal de fibra dedicadas.
Este nivel de compatibilidad similar es todavía más importante cuando se tiene en cuenta el uso de clústeres de
S2D.
El uso de RDMA junto con el protocolo de puente del centro de datos (DCB) ayuda a lograr un nivel similar de
rendimiento y ausencia de pérdida en una red Ethernet en comparación con las redes de canal de fibra.
La configuración de DCB debe ser coherente en todos los hosts y en la red de tejido (conmutadores). Un valor
de DCB mal configurado en cualquiera de los dispositivos host o de tejido es perjudicial para el rendimiento de
S2D.
Para configurar un valor de DCB, siga este procedimiento.
Administración de directivas QoS de
almacenamiento para clústeres
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo administrar directivas de calidad de servicio (QoS) de almacenamiento en
System Center Virtual Machine Manager (VMM).
NOTE
VMM 2019 UR3 y las versiones posteriores admiten Azure Stack HCl (versión 20H2).
C M DL ET A F EC TA DO PA RÁ M ET RO DETA L L ES
Pasos siguientes
Administración de QoS
Requisitos del sistema de System Center Virtual
Machine Manager
19/08/2021 • 18 minutes to read
En este artículo se detallan los requisitos del sistema para System Center 2019 - Virtual Machine Manager
(VMM).
Límites de capacidad
En la tabla siguiente se especifican los límites de escala que se han probado para
System Center Virtual Machine Manager 2019. Hay varios factores que afectan a los límites de escala, como la
configuración de hardware, red, topología y otros.
En la Guía de planeamiento se proporcionan detalles sobre cómo se pueden adaptar estos factores a
necesidades específicas.
Servicios 1000
Nubes 20
Redes lógicas 20
Hardware
B A SE DE DATO S DE
H A RDWA RE SERVIDO R VM M VM M B IB L IOT EC A DE VM M C O N SO L A DE VM M
RAM (mínimo) 4 GB 8 GB 2 GB 4 GB
RAM 16 GB 16 GB 4 GB 4 GB
(recomendado)
Windows 10 Enterprise S
SQL Server
NOTE
Con las versiones admitidas de SQL, use los Service Packs que Microsoft admite.
Para las siguientes versiones compatibles de SQL, se admiten las ediciones Standard, Enterprise y Datacenter (64 bits),
según la disponibilidad.
VERSIÓ N DE SQ L C O M PAT IB L E
Utilidades de línea de comandos de SQL Server Instalar las utilidades de línea de comandos de SQL Server
2016 desde el Microsoft® SQL Server® 2016 Feature
Pack
o bien
Instalar las utilidades de línea de comandos de
SQL Server 2017 desde
Microsoft® SQL Server® 2017 Feature Pack.
Virtualización
M Á Q UIN A VIRT UA L C O M PAT IB L E
M Á Q UIN A VIRT UA L C O M PAT IB L E
Componentes de instalación
Estos componentes deben instalarse en el servidor, antes de instalar VMM.
C O M P O N EN T E SERVIDO R VM M C O N SO L A DE VM M
SERVIDO R DE
SIST EM A O P ERAT IVO H O ST DE H Y P ER- V SO F S A C T UA L IZ A C IÓ N SERVIDO R P XE
Windows S Y No N
Server 2012 R2
(compatible con
2019 UR2 y
versiones
posteriores)
Windows Server Y Y No No
2016
SERVIDO R DE
SIST EM A O P ERAT IVO H O ST DE H Y P ER- V SO F S A C T UA L IZ A C IÓ N SERVIDO R P XE
Windows Server S Y Y S
2016 (con
experiencia de
escritorio)
Windows Server S Y Y S
2019 (Data Center)
Windows Server S Y No N
2019 (Server Core)
ESX ESX o ESXi 5.1, 5.5, 6.0, 6.5 y 6.7 (compatible con 2019 UR2
y versiones posteriores)
vCenter 5.1, 5.5, 5.8, 6.0, 6.5 y 6.7 (compatible con 2019 UR2 y
versiones posteriores)
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se detallan los requisitos del sistema para System Center 1807 - Virtual Machine Manager
(VMM).
Requisitos del sistema de VMM 1807
En las secciones siguientes se describe la información de escalabilidad, el hardware, software y los requisitos de
SQL Server para VMM 1807, y se resume la compatibilidad con los servidores administrados en el tejido de
VMM.
Límites de capacidad
En la tabla siguiente se proporcionan los límites de escala que se han probado para System Center Virtual
Machine Manager. Hay varios factores que afectan a los límites de escala, como la configuración de hardware,
red, topología y otros.
En la Guía de planeamiento se proporcionan detalles sobre cómo se pueden adaptar estos factores a
necesidades específicas.
Servicios 1000
Nubes 20
Redes lógicas 20
Hardware
B A SE DE DATO S DE
H A RDWA RE SERVIDO R VM M VM M B IB L IOT EC A DE VM M C O N SO L A DE VM M
RAM (mínimo) 4 GB 8 GB 2 GB 4 GB
RAM 16 GB 16 GB 4 GB 4 GB
(recomendado)
B A SE DE DATO S DE
H A RDWA RE SERVIDO R VM M VM M B IB L IOT EC A DE VM M C O N SO L A DE VM M
Windows 10 Enterprise S
SQL Server
NOTE
Con las versiones admitidas de SQL, use los Service Packs que Microsoft admite.
Para las siguientes versiones compatibles de SQL, se admiten las ediciones Standard, Enterprise y Datacenter (64 bits),
según la disponibilidad.
VERSIÓ N DE SQ L C O M PAT IB L E
Utilidades de línea de comandos de SQL Server Realice la instalación en el servidor VMM si desea
implementar las aplicaciones de capa de datos de SQL Server
en el tejido de VMM.
Virtualización
M Á Q UIN A VIRT UA L C O M PAT IB L E
Componentes de instalación
Estos componentes deben instalarse en el servidor, antes de instalar VMM.
C O M P O N EN T E SERVIDO R VM M C O N SO L A DE VM M
SERVIDO R DE
SIST EM A O P ERAT IVO H O ST DE H Y P ER- V SO F S A C T UA L IZ A C IÓ N SERVIDO R P XE
Windows Server No No No No
2012
Standard/Datacenter
Windows Server S Y Y Y
2012 R2
Standard/Datacenter
Windows Server Y Y No No
2016
Windows Server S Y Y S
2016 (con
experiencia de
escritorio)
Windows Server S Y No No
1709
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se detallan los requisitos del sistema para System Center 1801 - Virtual Machine Manager
(VMM).
En este artículo se detallan los requisitos del sistema para System Center 2016 - Virtual Machine Manager
(VMM).
Límites de capacidad
En la tabla siguiente se proporcionan los límites de escala que se han probado para System Center 1801 Virtual
Machine Manager. Hay varios factores que afectan a los límites de escala, como la configuración de hardware,
red, topología y otros.
En la Guía de planeamiento se proporcionan detalles sobre cómo se pueden adaptar estos factores a
necesidades específicas.
Servicios 1000
Nubes 20
Redes lógicas 20
EN T IDA D N ÚM ERO M Á XIM O REC O M EN DA DO
Hardware
B A SE DE DATO S DE
H A RDWA RE SERVIDO R VM M VM M B IB L IOT EC A DE VM M C O N SO L A DE VM M
RAM (mínimo) 4 GB 8 GB 2 GB 4 GB
RAM 16 GB 16 GB 4 GB 4 GB
(recomendado)
Windows 10 Enterprise S
SQL Server
NOTE
Con las versiones admitidas de SQL, use los Service Packs que Microsoft admite.
Para las siguientes versiones compatibles de SQL, se admiten las ediciones Standard, Enterprise y Datacenter (64 bits),
según la disponibilidad.
VERSIÓ N DE SQ L C O M PAT IB L E
Utilidades de línea de comandos de SQL Server Realice la instalación en el servidor VMM si desea
implementar las aplicaciones de capa de datos de SQL Server
en el tejido de VMM.
Virtualización
M Á Q UIN A VIRT UA L C O M PAT IB L E
M Á Q UIN A VIRT UA L C O M PAT IB L E
Componentes de instalación
Estos componentes deben instalarse en el servidor, antes de instalar VMM.
C O M P O N EN T E SERVIDO R VM M C O N SO L A DE VM M
SERVIDO R DE
SIST EM A O P ERAT IVO H O ST DE H Y P ER- V SO F S A C T UA L IZ A C IÓ N SERVIDO R P XE
Windows Server No No No No
2012
Standard/Datacenter
Windows Server S Y Y Y
2012 R2
Standard/Datacenter
Windows Server Y Y No No
2016
SERVIDO R DE
SIST EM A O P ERAT IVO H O ST DE H Y P ER- V SO F S A C T UA L IZ A C IÓ N SERVIDO R P XE
Windows Server S Y Y S
2016 (con
experiencia de
escritorio)
Windows Server S Y No No
1709
Límites de capacidad
En la tabla siguiente, se proporcionan los límites de escala que se han probado en System Center 2016 Virtual
Machine Manager. Hay varios factores que afectan a los límites de escala, como la configuración de hardware,
red, topología y otros.
En la Guía de planeamiento se proporcionan detalles sobre cómo se pueden adaptar estos factores a
necesidades específicas.
Servicios 1000
Nubes 20
Redes lógicas 20
Hardware
B A SE DE DATO S DE
H A RDWA RE SERVIDO R VM M VM M B IB L IOT EC A DE VM M C O N SO L A DE VM M
RAM (mínimo) 4 GB 8 GB 2 GB 4 GB
RAM 16 GB 16 GB 4 GB 4 GB
(recomendado)
Windows 7 No
Windows 8 No
Windows 8.1 S
Windows 10 Enterprise S
SQL Server
NOTE
Con las versiones admitidas de SQL, use los Service Packs que Microsoft admite.
Para las siguientes versiones compatibles de SQL, se admiten las ediciones Standard, Enterprise y Datacenter (64 bits),
según la disponibilidad.
VERSIÓ N DE SQ L C O M PAT IB L E
Utilidades de línea de comandos de SQL Server Realice la instalación en el servidor VMM si desea
implementar las aplicaciones de capa de datos de SQL Server
en el tejido de VMM.
Virtualización
M Á Q UIN A VIRT UA L C O M PAT IB L E
Componentes de instalación
Estos componentes deben instalarse en el servidor, antes de instalar VMM.
C O M P O N EN T E SERVIDO R VM M C O N SO L A DE VM M
SERVIDO R DE
SIST EM A O P ERAT IVO H O ST DE H Y P ER- V SO F S A C T UA L IZ A C IÓ N SERVIDO R P XE
Windows Server No No No No
2012
Standard/Datacenter
Windows Server S Y Y Y
2012 R2
Standard/Datacenter
Windows Server Y Y No No
2016
Windows Server S Y Y S
2016 (con
experiencia de
escritorio)
Windows Server S Y No No
2016 Nano
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Este artículo le ayuda a planear todos los elementos necesarios para una correcta instalación de System Center
Virtual Machine Manager (VMM) e incluye información para VMM 2016 y versiones posteriores. Use estos
requisitos según corresponda para la versión VMM que desea instalar.
Para más información sobre las versiones admitidas de hardware y software, consulte el artículo de requisitos
del sistema para la versión que instale.
Utilidades de línea de comandos para SQL Ser ver SQL Server 2014 feature pack para versiones anteriores a
2019, 2016/2017 y feature pack para 2019
Windows Assessment and Deployment Kit (ADK) Windows ADK para Windows 10
SPN
Si el usuario VMM que instala, o ejecuta el programa de instalación de VMM, no tiene permisos para escribir el
nombre de entidad de seguridad de servicio (SPN) para el servidor VMM en Active Directory, el programa de
instalación finalizará con una advertencia. Si no se ha registrado el SPN, otros equipos que ejecuten la consola
VMM no podrán conectarse al servidor de administración y no podrá implementar un host de Hyper-V en un
equipo sin sistema operativo en el tejido de VMM. Para evitar este problema, debe registrar el SPN como un
administrador de dominio antes de instalar VMM, como sigue:
1. Ejecute estos comandos desde <SystemDrive>\Windows\System32 >, como administrador de dominio:
setspn -u -s SCVMM/<MachineBIOSName> <VMMServiceAccount>
setspn -u -s SCVMM/<MachineFQDN> <VMMServiceAccount>
NOTE
La intercalación de la base de datos de destino y la del servidor VMM deben ser iguales si la base de datos forma parte
de un grupo de SQL Always On (AO). Para comprobar la referencia cultural actual en su máquina VMM, use el comando
Get-Culture de PowerShell. Obtenga más información sobre las Asignaciones de intercalaciones del servidor VMM.
Servidor de biblioteca
Si ejecuta el servidor de biblioteca en el servidor de administración VMM, deberá disponer de espacio extra
en disco para almacenar objetos. El espacio necesario varía según el número y el tamaño de los objetos que
almacene.
El servidor de biblioteca es donde VMM almacena elementos como plantillas de máquina virtual, discos
duros virtuales, disquetes virtuales, imágenes ISO, scripts y máquinas virtuales almacenadas. Los requisitos
de hardware óptimos que se especifican para un servidor de biblioteca VMM varían en función de la
cantidad y el tamaño de estos archivos. Deberá comprobar el uso de CPU y otras variables de estado del
sistema para determinar qué funciona mejor en su entorno.
Si quiere administrar discos duros virtuales con el formato de archivo .vhdx, el servidor de biblioteca VMM
debe ejecutar Windows Server 2012 o posterior.
VMM no proporciona un método para la replicación de archivos físicos en la biblioteca de VMM ni un
método para transferir metadatos de objetos que se almacenan en la base de datos de VMM. En su lugar, si
es necesario, debe replicar los archivos físicos fuera de VMM, y debe transferir los metadatos usando scripts
u otros medios.
VMM no admite servidores de archivos configurados con la opción que distingue mayúsculas de minúsculas
en Windows Services for UNIX, porque el control de mayúsculas y minúsculas de Network File System está
establecido en Omitir .
Pasos siguientes
Instalar VMM
Planificación de una implementación de VMM de
alta disponibilidad
19/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo planificar una implementación de System Center - Virtual Machine Manager
(VMM) de alta disponibilidad.
Para lograr resistencia y escalabilidad, puede implementar VMM en modo de alta disponibilidad. Para ello, siga
estos pasos:
Implemente el servidor de administración VMM en un clúster de conmutación por error.
Logre una alta disponibilidad para recursos compartidos de archivos del servidor de biblioteca.
Implemente la base de datos de VMM de SQL Server en modo de alta disponibilidad.
Pasos siguientes
Configurar una implementación de VMM de alta disponibilidad
Identificar puertos y protocolos de VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Como parte de la implementación de System Center Virtual Machine Manager (VMM), debe permitir el acceso a
los puertos y protocolos que van a usar el servidor y los componentes de VMM. Es importante planear esto con
antelación. Algunos de los valores de puerto se configuran en el programa de instalación de VMM, y si quiere
modificarlos después de configurar VMM por primera vez, debe volver a instalar para realizar esta acción.
Configurar excepciones
1. Identifique dónde debe crear excepciones de firewall, de acuerdo con la tabla siguiente.
2. En el servidor que identifique, haga clic en Inicio > Siguiente > Herramientas administrativas >
Firewall de Windows con seguridad avanzada .
3. En el panel Firewall de Windows con seguridad avanzada en el equipo Local , haga clic en Reglas de
entrada .
4. En Acciones , haga clic en Nueva regla .
5. En el Asistente para nueva regla de entrada > Tipo de regla , haga clic en Puerto y después en
Siguiente.
6. En Protocolo y puer tos , especifique la configuración de puerto según la tabla siguiente y continúe con el
asistente para crear la regla.
Servidor VMM a agente 80: WinRM; 135: RPC; 139: Usado por el agente VMM No se puede modificar
VMM en hosts basados en NetBIOS; 445: SMB (sobre
Windows Server y servidor TCP) Regla de entrada en hosts
de biblioteca remoto
Servidor VMM a agente 443:HTTPS Canal de datos de BITS para Modificar en el programa
VMM en hosts basados en las transferencias de de instalación de VMM
Windows Server y servidor archivos
de biblioteca remoto
Regla de entrada en hosts
Servidor VMM a agente de 443:HTTPS Canal de datos de BITS para No se puede modificar
invitado de VMM (canal de las transferencias de
datos de máquina virtual) archivos
Regla de entrada en
equipos que ejecutan el
agente
Host VMM a host 443:HTTPS Canal de datos de BITS para Modificar en el programa
las transferencias de de instalación de VMM
archivos
Servidor VMM a 80:HTTP; 443:HTTPS Canal que se usa para la Modificar en el proveedor
equilibrador de carga administración del de equilibrador de carga
equilibrador de carga
Servidor de biblioteca VMM 443:HTTPS Canal de datos de BITS para Modificar en el programa
a hosts de Hyper-V las transferencias de de instalación de VMM
archivos
Servidor VMM a 443: HTTP (SMASH sobre Regla de entrada de Modificar en el dispositivo
Controlador de WS-Management) dispositivo de BMC de BMC
administración de placa
base (BMC)
Servidor VMM a Agente de 8101:WCF; 8103:WCF 8101 se usa para el canal Modificar en el programa
Windows PE de control, 8103 se usa de instalación de VMM
para la sincronización de la
hora
Regla de entrada de
servidor VMM
Servidor VMM a servidor 80: WinRM; 135: RPC; 139: Usado por el agente VMM
de archivos de Windows NetBIOS; 445: SMB (sobre
TCP) Regla de entrada de
servidor de archivos
Regla de entrada de
servidor de archivos
C O N EXIÓ N P UERTO Y P ROTO C O LO DETA L L ES C O N F IGURA C IÓ N
NOTE
Además de los puertos mencionados, VMM se basa en el intervalo de puertos dinámicos predeterminado para toda su
comunicación con servidores de biblioteca, servidores de archivos y hosts de Hyper-V. Obtenga más información sobre el
intervalo de puertos dinámicos. Se recomienda volver a configurar los firewalls para permitir el tráfico entre los servidores
en el intervalo de puertos dinámicos de 49152 a 65535.
Pasos siguientes
Puede modificar algunos de estos puertos y protocolos durante la instalación de VMM.
Planificación de un tejido de proceso de VMM
19/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo planificar el tejido de proceso en System Center - Virtual Machine Manager
(VMM). El tejido de proceso de VMM se compone de la biblioteca VMM, los hosts de virtualización, los grupos
host y otros servidores de infraestructura.
Pasos siguientes
Obtenga información sobre cómo implementar la biblioteca en el modo de alta disponibilidad si así lo
necesita.
Administrar la biblioteca VMM
Planificación del tejido de red de VMM
19/08/2021 • 14 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo planificar el tejido de red en System Center - Virtual Machine Manager
(VMM).
Componentes de red
Las redes de VMM contienen una serie de componentes, que se resumen en la tabla siguiente:
C O M P O N EN T E DE RED DETA L L ES
Redes lógicas En VMM, las redes físicas se definen como redes lógicas. Las
redes lógicas son una forma útil de abstracción de la
infraestructura de red física subyacente. La configuración de
red lógica coincide con la del entorno de red físico, o bien es
un reflejo de ella. Por ejemplo, las direcciones IP y las
propiedades de VLAN coincidirán exactamente, y un sitio de
red en una red lógica contendrá los valores de configuración
para el sitio.
Grupos de direcciones MAC Puede crear grupos de direcciones MAC para máquinas
virtuales que se ejecutan en hosts de virtualización en el
tejido de VMM. Cuando se utilizan grupos de direcciones
MAC estáticas, VMM puede generar y asignar
automáticamente direcciones MAC a máquinas virtuales.
Puede usar un grupo estándar o configurar un grupo
personalizado.
Redes lógicas ya creadas de forma predeterminada por VMM Cuando se agrega un host de Hyper-V a VMM, las redes
lógicas pueden crearse de forma predeterminada, basándose
en los sufijos DNS.
Cuántas redes lógicas necesita y el propósito de cada una Planee la creación de redes lógicas para representar la
topología de red para los hosts. Por ejemplo, si necesita una
red de administración, una red utilizada para los latidos de
clúster y una red utilizada por máquinas virtuales, cree una
red lógica para cada una.
Categorías en que se dividen las redes lógicas Revise los propósitos de las redes lógicas y clasifíquelas:
Cuántos sitios de red son necesarios en cada red lógica Una forma habitual para planear sitios de red es en torno a
grupos host y ubicaciones de hosts. Por ejemplo, para un
grupo host de "Seattle" y un grupo host de "Nueva York", si
tuviera una red lógica de ADMINISTRACIÓN, puede crear
dos sitios de red, denominados ADMINISTRACIÓN -
Seattle y ADMINISTRACIÓN - Nueva York .
Qué VLAN o subredes IP se necesitan en cada sitio de red Las VLAN y las subredes IP asignadas deben coincidir con la
topología.
Qué redes lógicas (o, en concreto, qué sitios de red) Determine qué redes lógicas usan una dirección IP estática o
necesitan grupos de direcciones IP equilibrio de carga y qué redes lógicas son la base para la
virtualización de red. Planifique grupos de direcciones IP
para estas redes lógicas.
NOTE
A veces se hace referencia a los sitios de red como "definiciones de redes lógicas", por ejemplo, en los comandos de
Windows PowerShell.
P RO P Ó SITO DE L A RED LÓ GIC A DIREC T RIC ES PA RA LO S SIT IO S DE RED EN ESA RED LÓ GIC A
Dirección IP estática : red lógica que va a usar una Cree al menos un sitio de red y asocie al menos una subred
dirección IP estática, por ejemplo, una red que admite los IP al sitio de red.
nodos de clúster de hosts
DHCP (pero no las VL AN) : red lógica que no incluye No se necesita ningún sitio de red.
VLAN, con todos los equipos o dispositivos mediante DHCP
P RO P Ó SITO DE L A RED LÓ GIC A DIREC T RIC ES PA RA LO S SIT IO S DE RED EN ESA RED LÓ GIC A
VL AN: red lógica para redes independientes basadas en - Si las VLAN utilizan una dirección IP estática, cree sitios de
VLAN red correspondientes que especifiquen información de
subred IP y VLAN.
- Si las VLAN utilizan DHCP, cree sitios de red
correspondientes que especifiquen solo información de
VLAN (sin subredes).
Vir tualización de red : red lógica que será la base para las Cree al menos un sitio de red y asocie al menos una subred
redes de VM con virtualización de red IP al sitio. La subred IP es necesaria porque esta red lógica
necesitará un grupo de direcciones IP.
Equilibrio de carga : red lógica que incluirá un equilibrador Cree al menos un sitio de red y asocie al menos una subred
de carga administrado por VMM IP al sitio de red.
NOTE
Para una red externa, es decir, una red administrada a través de una consola de administración de red del proveedor o el
administrador de extensiones de conmutador virtual fuera de VMM, puede configurar a través de la consola de
administración de red del proveedor y permitirles importar desde la base de datos de administración de red del proveedor
a VMM.
Dirección IP estática : red lógica "sin aislamiento" que Cree uno o varios grupos de direcciones IP para la red lógica.
requiere una dirección IP estática, como por ejemplo, una
red que admite nodos de clúster de hosts Para una red lógica "sin aislamiento", si crea una red de VM
en la red lógica, los grupos de direcciones IP
automáticamente estarán disponibles en la red de VM. En
otras palabras, la red de VM seguirá dando acceso directo a
la red lógica.
VL AN: una red lógica para redes independientes basadas en Cree grupos de direcciones IP en la red lógica; un grupo de
VLAN, mediante una dirección IP estática (en lugar de direcciones IP para cada VLAN en que se usará el
DHCP) direccionamiento IP estático.
Vir tualización de red : red lógica que será la base para las Cree grupos de direcciones IP en la red lógica que
redes de VM con virtualización de red proporciona la base para las redes de VM. Más adelante, al
crear las redes de VM, también deberá crear grupos de
direcciones IP en ellas (y consulte la nota importante que
aparece después de esta tabla). Si utiliza DHCP en las redes
de VM, VMM responderá a una solicitud DHCP con una
dirección de un grupo de direcciones IP.
Equilibrio de carga : red lógica que será la base para una Cree un grupo de direcciones IP estáticas en la red de VM y,
red de VM, cuando se utiliza el equilibrio de carga en un en ella, defina un intervalo reservado de direcciones IP.
"nivel de servicio" (parte de un conjunto de máquinas Cuando se usa VMM para implementar un nivel de servicio
virtuales implementadas conjuntamente como un "servicio" de equilibrio de carga que utiliza la red de VM, VMM usa el
de VMM) intervalo reservado de direcciones IP para asignar
direcciones IP virtuales (VIP) al equilibrador de carga.
IMPORTANT
Si configura una máquina virtual para que obtenga una dirección IP estática de un grupo de direcciones IP, debe
configurar también la máquina virtual para que utilice una dirección MAC estática. Puede especificar la dirección MAC
manualmente (durante el paso Configurar opciones ) o asignar automáticamente a VMM una dirección MAC del grupo
de direcciones MAC.
Este requisito de direcciones MAC estáticas obedece a que VMM usa la dirección MAC para identificar en qué adaptador
de red establece la dirección IP estática, y esta identificación debe producirse antes de iniciar la máquina virtual. La
identificación del adaptador de red es especialmente importante si una máquina virtual tiene varios adaptadores de red. Si
las direcciones MAC se asignan dinámicamente a través de Hyper-V, VMM no puede identificar sistemáticamente el
adaptador correcto en el que establecer una dirección IP estática.
VMM proporciona grupos de direcciones MAC estáticas de forma predeterminada, pero los grupos se pueden
personalizar. VMM proporciona grupos de direcciones MAC estáticas de forma predeterminada, pero los grupos se
pueden personalizar.
Al crear un grupo de direcciones IP estáticas, puede configurar información asociada, como puertas de
enlace predeterminadas, servidores DNS (Sistema de nombres de dominio), sufijos DNS y servidores
WINS (Servicio de nombres Internet de Windows). Todas estas configuraciones son opcionales.
Los grupos de direcciones IP admiten direcciones IPv4 e IPv6. Sin embargo, no se pueden mezclar
direcciones IPv4 e IPv6 en el mismo grupo de direcciones IP.
NOTE
Una vez implementada una máquina virtual en VMM, puede ver las direcciones IP asignadas a dicha máquina. Para ello,
haga clic con el botón derecho en la máquina virtual, haga clic en Propiedades , haga clic en la pestaña Configuración
de hardware , haga clic en el adaptador de red y, en el panel de resultados, haga clic en Detalles de conexión .
Pasos siguientes
Configurar el tejido de red
Supported Storage Arrays
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Las cargas de trabajo virtualizadas de System Center - Virtual Machine Manager (VMM) requieren recursos de
almacenamiento para satisfacer los requisitos de capacidad y rendimiento. VMM reconoce el almacenamiento
local y remoto. Admite el almacenamiento en dispositivos de almacenamiento a nivel de bloque que exponen
números de unidad lógica (LUN) con conexiones de canal de fibra, iSCSI y SAS, y recursos compartidos de red.
En este artículo se proporciona una lista de dispositivos de almacenamiento admitidos en VMM 2016, 1801,
1807.
F IRM WA RE M ÍN IM O
DEVIC E P ROTO C O LO DEL C O N T RO L A DO R SM I- S DETA L L ES
Hewlett Packard SMI-S 3PAR: 3PAR versión SMI-S CIM versión Vínculo
Enterprise 3.2.2 MU3 o 1.5
posterior
3PAR
3PAR 8000 y 20000,
7000 y 10000
SCOS 7.3.5 o
versiones posteriores,
DSM 2018 R1.20 o
versiones posteriores
SCOS 7.4.x y
versiones posteriores,
y DSM 2020 R1
(20.1.1) o versiones
posteriores
En este artículo se detallan las matrices compatibles con System Center 2019 - Virtual Machine Manager
(VMM).
F IRM WA RE M ÍN IM O
DISP O SIT IVO P ROTO C O LO DEL C O N T RO L A DO R SM I- S DETA L L ES
Hewlett Packard SMI-S 3PAR: 3PAR versión SMI-S CIM versión Vínculo
Enterprise 3.2.2 MU3 o 1.5
posterior
3PAR
3PAR 8000 y 20000,
7000 y 10000
Software de control
de almacenamiento
M520/M720/M720F,
versión 1224 o
posterior
DSM 2020 R1
(20.1.1) o posterior
Primera
F IRM WA RE M ÍN IM O
DISP O SIT IVO P ROTO C O LO DEL C O N T RO L A DO R SM I- S DETA L L ES
NOTE
Problema conocido : No se puede eliminar el volumen de almacenamiento (LUN) con aprovisionamiento fino para HPE
Primera a través de VMM 2019.
Solución alternativa : Elimine LUN directamente desde la matriz.
Pasos siguientes
Obtenga más información sobre cómo configurar el almacenamiento en el tejido de VMM.
Obtenga más información sobre el programa de pruebas de conformidad de SMI-S de matriz.
Actualizar System Center Virtual Machine Manager
19/08/2021 • 51 minutes to read
En este artículo se proporciona información de actualización para System Center 2019 - Virtual Machine
Manager (VMM).
NOTE
Durante la instalación de VMM, asegúrese de que SQL Database no forma parte de ningún grupo de disponibilidad.
Limitaciones y requisitos
Debe ejecutar VMM en System Center 2016 con el paquete acumulativo de actualizaciones 6 o 1801 o 1807.
Asegúrese de que el servidor cumple todos los requisitos de VMM 2019 y que esos requisitos previos están
en su lugar Más información
Asegúrese de que ejecuta una versión compatible de SQL Server.
Si su implementación actual de VMM se integra con Azure Site Recovery, tenga en cuenta que:
No se puede actualizar la configuración de Site Recovery. Después de la actualización, debe volver a
realizar la implementación.
Compruebe la compatibilidad de hosts de Hyper-V de VMM 2019.
Antes de comenzar
Asegúrese de lo siguiente:
1. Complete todos los trabajos que se estén ejecutando en VMM. Tenga en cuenta que durante la
actualización se elimina el historial de trabajos.
2. Cierre las conexiones al servidor de administración VMM, incluidos la consola VMM y el shell de
comandos VMM.
3. Cierre todos los demás programas que se ejecutan en el servidor de administración VMM.
4. Asegúrese de que no haya ningún reinicio pendiente en los servidores de VMM.
5. Realice una copia de seguridad completa de la base de datos VMM
6. Si la base de datos de SQL Server actual usa grupos de disponibilidad AlwaysOn:
Quite la base de datos de VMM de SQL Server Management Studio si está incluida en el grupo de
disponibilidad.
Inicie una conmutación por error en el equipo que ejecuta SQL Server, en el que está instalada la base
de datos de VMM.
7. Si está ejecutando Operations Manager con VMM, desconecte la conexión entre VMM y el servidor de
Operations Manager.
Secuencia de actualización de componentes de System Center
Si ejecuta más de un componente de System Center, debe actualizarlos en un orden específico, tal como se
muestra a continuación:
1. Service Management Automation
2. Orquestador
3. Service Manager
4. Data Protection Manager
5. Operations Manager
6. Configuration Manager
7. Virtual Machine Manager
8. Service Provider Foundation
Si se utiliza Distributed Key Management, puede optar por instalar VMM 2019 en un servidor diferente, pero
hay que asegurarse de que el nuevo servidor tenga el mismo nombre que el del antiguo servidor VMM.
Siga estos procedimientos:
Copia de seguridad y actualización del SO
Instalación de VMM 2019
Copia de seguridad y actualización del SO
1. Realice una copia de seguridad y conserve la base de datos VMM.
2. Desinstale VMM. Quite tanto el servidor de administración como la consola.
3. Actualice el sistema operativo de administración a Windows Server 2019.
4. Instale la versión de Windows 10 de ADK.
Desinstalación de VMM
1. Vaya a Panel de control > Programas > Programas y características , seleccione Vir tual Machine
Manager y haga clic en Desinstalar .
2. En el Asistente para desinstalación , seleccione Quitar características , seleccione Ser vidor de
administración VMM y Consola VMM en la lista de características para quitar.
3. En la página de opciones de la base de datos, seleccione Conser var base de datos .
4. Revise el resumen y haga clic en Desinstalar .
Instalación de VMM 2019
1. En la página principal de instalación, haga clic en Instalar .
2. En Seleccionar características para instalar , seleccione el servidor de administración VMM y,
después, haga clic en Siguiente . La consola VMM se instalará automáticamente.
3. En Información de registro del producto , proporcione la información adecuada y, después, haga clic
en Siguiente . Si no especifica ninguna clave de producto, VMM se instalará como versión de evaluación
y expirará al cabo de 180 días tras la fecha de instalación.
4. En Lea este contrato de licencia , revise el contrato de licencia, active la casilla He leído, he
comprendido y acepto los términos del contrato de licencia y, después, haga clic en Siguiente .
5. En Datos de uso y conectividad , seleccione cualquiera de las opciones y haga clic en Siguiente .
6. Si se abre la página Microsoft Update , seleccione si quiere usar Microsoft Update y haga clic en
Siguiente . Si ya ha elegido usar Microsoft Update en este equipo, esta página no aparecerá.
7. En Ubicación de la instalación , use la ruta de acceso predeterminada o escriba una ruta de acceso de
instalación distinta para los archivos de programa de VMM y, luego, haga clic en Siguiente .
8. En Configuración de base de datos :
Obtenga más información si necesita actualizar el servidor SQL Server de VMM.
Si usa una instancia remota de SQL, especifique el nombre del equipo del servidor SQL Server.
Si el servidor SQL Server se ejecuta en el servidor VMM, escriba el nombre del servidor VMM o
localhost . Si SQL Server está en un clúster, escriba el nombre del clúster.
No especifique ningún valor de puerto si usa un servidor SQL Server local o si el servidor SQL Server
remoto usa el puerto predeterminado (1443).
Seleccione Base de datos existente y, luego, la base de datos que conservó mediante una copia de
seguridad en la instalación anterior. Proporcione credenciales que tengan permisos para obtener
acceso a la base de datos. Cuando se le pregunte si desea actualizar la base de datos, haga clic en Sí .
9. En Configurar la cuenta de ser vicio y la administración de clave distribuida , especifique la
cuenta que usará el servicio VMM.
NOTE
No puede cambiar la identidad de la cuenta de servicio VMM después de la instalación.
10. En Administración de claves distribuida , seleccione si desea almacenar las claves de cifrado en
Active Directory.
NOTE
Elija con atención la configuración de la cuenta de servicio y la administración de claves distribuida. Según cuál sea
su elección, los datos cifrados, tales como contraseñas en plantillas, podrían no estar disponibles después de
actualizar, por lo que deberá volver a escribirlos manualmente.
11. En Configuración de puer to , use el número de puerto predeterminado para cada característica o
especifique un número de puerto único que sea adecuado para su entorno.
NOTE
No puede cambiar los puertos que asigne durante la instalación de un servidor de administración VMM, a menos
que desinstale y vuelva a instalar el servidor de administración VMM. Además, no configure ninguna característica
para que utilice el puerto 5986, ya que este número de puerto está preasignado.
NOTE
Una vez que se haya completado la actualización, actualice el agente del host manualmente usando VMM.
NOTE
La actualización de SQL Server se puede llevar a cabo en cualquier momento, independientemente de la actualización de
VMM.
NOTE
Una vez que se haya completado la actualización del servicio VMM de alta disponibilidad, actualice el agente del host
manualmente usando VMM.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Debe tener instalado System Center - Virtual Machine Manager 1801 para poder aplicar la actualización 1807.
Obtenga más información sobre cómo instalar VMM 1807.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información de actualización para System Center 1801 Virtual Machine
Manager (VMM).
En este artículo se proporciona información de actualización para System Center 2016 Virtual Machine
Manager (VMM).
NOTE
Durante la instalación de VMM, asegúrese de que SQL Database no forma parte de ningún grupo de disponibilidad.
Limitaciones y requisitos
Debe ejecutar VMM en System Center 2012 R2 con el paquete acumulativo de actualizaciones 14 o 2016 UR
4.
Asegúrese de que el servidor cumple todos los requisitos de VMM 1801 y que esos requisitos previos están
en su lugar Más información
Asegúrese de que ejecuta una versión compatible de SQL Server.
Si su implementación actual de VMM se integra con Azure Site Recovery, tenga en cuenta que:
No se puede actualizar la configuración de Site Recovery. Después de la actualización, debe volver a
realizar la implementación.
Compruebe la compatibilidad de hosts de Hyper-V de VMM 1801.
Antes de comenzar
Asegúrese de lo siguiente:
1. Complete todos los trabajos que se estén ejecutando en VMM. Tenga en cuenta que durante la actualización
se elimina el historial de trabajos.
2. Cierre las conexiones al servidor de administración VMM, incluidos la consola VMM y el shell de comandos
VMM.
3. Cierre todos los demás programas que se ejecutan en el servidor de administración VMM.
4. Asegúrese de que no haya ningún reinicio pendiente en los servidores de VMM.
5. Realice una copia de seguridad completa de la base de datos VMM
6. Si está ejecutando Operations Manager con VMM, desconecte la conexión entre VMM y el servidor de
Operations Manager.
NOTE
No puede cambiar la identidad de la cuenta de servicio VMM después de la instalación.
10. En Administración de claves distribuida , seleccione si desea almacenar las claves de cifrado en
Active Directory.
NOTE
Elija con atención la configuración de la cuenta de servicio y la administración de claves distribuida. Según cuál sea
su elección, los datos cifrados, tales como contraseñas en plantillas, podrían no estar disponibles después de
actualizar, por lo que deberá volver a escribirlos manualmente.
11. En Configuración de puer to , use el número de puerto predeterminado para cada característica o
especifique un número de puerto único que sea adecuado para su entorno.
NOTE
No puede cambiar los puertos que asigne durante la instalación de un servidor de administración VMM, a menos
que desinstale y vuelva a instalar el servidor de administración VMM. Además, no configure ninguna característica
para que utilice el puerto 5986, ya que este número de puerto está preasignado.
NOTE
Una vez que se haya completado la actualización, actualice el agente del host manualmente usando VMM.
NOTE
La actualización de SQL Server se puede llevar a cabo en cualquier momento, independientemente de la actualización de
VMM.
NOTE
Una vez que se haya completado la actualización del servicio VMM de alta disponibilidad, actualice el agente del host
manualmente usando VMM.
Limitaciones y requisitos
VMM debe estar ejecutándose en System Center 2012 R2 con el paquete acumulativo de actualizaciones 9 o
posterior.
El servidor en el que va a instalar VMM debe cumplir los requisitos de VMM 2016. Más información
Asegúrese de que ejecuta una versión compatible de SQL Server.
Si su implementación actual de VMM se integra con Azure Site Recovery, tenga en cuenta que no se puede
actualizar la configuración de Site Recovery. Después de la actualización, debe volver a realizar la
implementación.
Compruebe los requisitos de soporte de host de Hyper-V de VMM 2016.
Antes de empezar
1. Complete todos los trabajos que se estén ejecutando en VMM. Durante la actualización, se elimina el
historial completo de trabajos.
2. Cierre las conexiones al servidor de administración VMM, incluidos la consola VMM y el shell de
comandos VMM.
3. Cierre todos los demás programas que se ejecutan en el servidor de administración VMM.
4. Asegúrese de que no haya ningún reinicio pendiente en los servidores de VMM.
5. Realice una copia de seguridad completa de la base de datos VMM
6. Si la base de datos de SQL Server actual usa grupos de disponibilidad AlwaysOn:
Quite la base de datos de VMM de SQL Server Management Studio si está incluida en el grupo de
disponibilidad.
Inicie una conmutación por error en el equipo que ejecuta SQL Server y en el que está instalada la
base de datos de VMM.
7. Si está ejecutando Operations Manager con VMM, desconecte la conexión entre VMM y el servidor de
Operations Manager.
8. Si el servidor de VMM 2012 R2 ejecuta el paquete acumulativo de actualizaciones 10 u 11, y tiene un
equilibrador de carga Citrix NetScalar implementado, ejecute este script de SQL Server antes de iniciar la
actualización, de lo contrario, se podría producir un error. El script no es necesario si ejecuta el paquete
acumulativo de actualizaciones 12 o posterior.
ALTER TABLE [dbo].[tbl_NetMan_HardwareModelSettings] ALTER COLUMN Version NVARCHAR(255) NULL; GO
NOTE
Elija cuidadosamente la configuración de la cuenta de servicio y administración de claves distribuida. Según cuál
sea su elección, los datos cifrados, tales como contraseñas en plantillas, podrían no estar disponibles después de
actualizar, por lo que deberá volver a escribirlos manualmente.
11. En Configuración de puer to , use el número de puerto predeterminado para cada característica o
especifique un número de puerto único que sea adecuado para su entorno. Para cambiar los puertos que
asigne durante la instalación de un servidor de administración VMM, necesita desinstalar y volver a
instalar el servidor. No configure ninguna característica para que utilice el puerto 5986, ya que este
número de puerto está preasignado.
12. En Configuración de la biblioteca , seleccione si quiere crear un recurso compartido de biblioteca o
usar uno existente en el equipo. El recurso compartido de biblioteca predeterminado que VMM crea se
denomina MSSCVMMLibrar y , y la carpeta correspondiente se encuentra en
%SYSTEMDRIVE%\ProgramData\Vir tual Machine Manager Librar y Files . ProgramData es una
carpeta oculta y no puede quitarla. Una vez instalado el servidor de administración VMM, puede agregar
recursos compartidos de biblioteca y servidores de biblioteca adicionales mediante la consola VMM o
mediante el shell de comandos VMM.
13. En Informe de compatibilidad de actualización , revise la configuración y haga clic en Siguiente
para continuar con la actualización.
14. En Resumen de la instalación , revise la configuración y haga clic en Instalar para actualizar el
servidor. Se mostrará la página Instalando características con el progreso de la instalación.
15. En La instalación finalizó correctamente , haga clic en Cerrar para completar la instalación. Para
abrir la consola VMM, active la opción Abrir la consola de VMM cuando se cierre este asistente o
haga clic en el icono de la consola VMM del escritorio.
16. Después de la actualización, actualice el agente de host manualmente.
17. Durante la instalación, VMM habilita las siguientes reglas de firewall. Estas reglas siguen vigentes aunque
después se desinstale VMM:
Administración remota de Windows
Administración de almacenamiento basada en estándares de Windows
Si experimenta problemas durante la instalación, compruebe los registros en la carpeta
%SYSTEMDRIVE%\ProgramData\VMMLogs .
Pasos siguientes
Obtenga información sobre los paquetes acumulativos de actualizaciones más recientes.
Instalar VMM
19/08/2021 • 13 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use este artículo para instalar el servidor de administrador de System Center - Virtual Machine Manager
(VMM).
Antes de empezar
Consulte los requisitos del sistema y la información de planeación. Obtenga información sobre los requisitos
del sistema.
Asegúrese de contar, al menos, con permisos de administrador local en el equipo antes de ejecutar la
instalación.
La cuenta de servicio debe ser un administrador en el servidor de VMM.
NOTE
Durante la instalación de VMM, asegúrese de que SQL Database no forma parte de ningún grupo de disponibilidad.
Ejecución de la instalación
NOTE
La cuenta de servicio para VMM puede ser:
Una cuenta local
Una cuenta de usuario que se usa para el servicio
Una cuenta de servicio administrada de grupo
Si usa una cuenta local, no puede disponer de VMM en una configuración de alta disponibilidad.
Si usa una cuenta gMSA, el formato debe ser domainFQDN\gMSAAccount$
1. Cierre todos los programas abiertos y asegúrese de que no haya ningún reinicio pendiente en el equipo.
2. Para iniciar el Asistente para la instalación de Virtual Machine Manager, haga clic con el botón derecho en
setup.exe en el medio de instalación y, a continuación, haga clic en Ejecutar como administrador .
3. En la página principal de instalación, haga clic en Instalar .
4. En la página Seleccionar las características que se van a instalar , active la casilla Ser vidor de
administración VMM y, a continuación, haga clic en Siguiente . La consola VMM se instalará
automáticamente. Si realiza la instalación en un nodo de clúster, se le preguntará si desea que el servidor de
administrador tenga una alta disponibilidad.
5. En la página Información de registro del producto , proporcione la información adecuada y, a
continuación, haga clic en Siguiente . Si no especifica una clave de producto, VMM se instalará como una
versión de evaluación que expira 180 días después de la instalación.
6. En la página Lea este contrato de licencia , revise el contrato de licencia, active la casilla He leído, he
comprendido y acepto los términos del contrato de licencia y, a continuación, haga clic en
Siguiente .
7. En la página Datos de diagnóstico y uso , revise la directiva de recopilación de datos de Microsoft y cómo
deshabilitar la recopilación de datos. A continuación, haga clic en Siguiente .
8. Si se abre la página Microsoft Update , seleccione si quiere usar Microsoft Update y, después, haga clic en
Siguiente. La página no aparecerá si ya eligió usar Microsoft Update en este equipo.
9. En la página Datos de diagnóstico y uso , revise la directiva de recopilación de datos de Microsoft y cómo
deshabilitar la recopilación de datos. Después, haga clic en Siguiente .
10. En la página Ubicación de la instalación , use la ruta de acceso predeterminada o escriba una ruta de
acceso de instalación distinta para los archivos de programa de VMM y luego haga clic en Siguiente . El
programa de instalación comprueba el equipo en el que está instalando el servidor de administración VMM
para asegurarse de que cumple los requisitos de hardware y software adecuados. Si el equipo no cumple un
requisito previo, aparecerá una página con información sobre el requisito previo y cómo resolver el
problema.
11. En la página Configuración de base de datos , si usa una instancia de SQL remota, especifique el nombre
del equipo que ejecuta SQL Server. Si va a instalar el servidor de administración VMM en el mismo equipo
en que se ejecuta SQL Server, en el cuadro Nombre de ser vidor , escriba el nombre del equipo (por
ejemplo, vmmser ver01 ) o localhost . Si SQL Server está en un clúster, escriba el nombre del clúster.
12. No especifique un valor de puer to si no tiene una instancia remota de SQL Server o si tiene un SQL Server
remoto que usa el puerto predeterminado (1443).
13. Especifique el nombre de la instancia de SQL Server y si desea usar una base de datos nueva o existente.
Necesitará una cuenta con permisos para conectarse a la instancia.
14. En la página Configurar la cuenta de ser vicio y la administración de clave distribuida , especifique
la cuenta que el servicio VMM usará. No puede cambiar la identidad de la cuenta de servicio VMM después
de la instalación. Puede obtener más información sobre la administración de claves distribuida aquí.
15. En Administración de claves distribuida , seleccione si desea almacenar las claves de cifrado en Active
Directory.
16. En la página Configuración de puer to , use el número de puerto predeterminado para cada característica o
especifique un número de puerto único que sea adecuado para su entorno. No puede cambiar los puertos
que asigne durante la instalación de un servidor de administración VMM, a menos que desinstale y vuelva a
instalar el servidor de administración VMM. Además, no configure ninguna característica para que utilice el
puerto 5986, ya que este número de puerto está preasignado.
17. En la página Configuración de la biblioteca , seleccione si desea crear un nuevo recurso compartido de
biblioteca o utilizar uno existente en el equipo. El recurso compartido de biblioteca predeterminado que
VMM crea se denomina MSSCVMMLibrary, y la carpeta correspondiente se encuentra en
%SYSTEMDRIVE%\ProgramData\Vir tual Machine Manager Librar y Files . ProgramData es una
carpeta oculta y no puede quitarla. Una vez instalado el servidor de administración VMM, puede agregar
recursos compartidos de biblioteca y servidores de biblioteca adicionales mediante la consola VMM o
mediante el shell de comandos VMM.
18. En la página Resumen de la instalación , revise las selecciones y, luego, haga clic en Instalar . Se mostrará
la página Instalando características con el progreso de la instalación.
19. En la página La instalación finalizó correctamente , haga clic en Cerrar para completar la instalación.
Para abrir la consola VMM, puede comprobar que Abrir la consola VMM cuando se cierre este
asistente está activada o hacer clic en el icono Consola de Vir tual Machine Manager del escritorio.
Durante la instalación, VMM habilita las siguientes reglas de firewall. Estas reglas siguen vigentes aunque
después se desinstale VMM.
Administración remota de Windows
Administración de almacenamiento basada en estándares de Windows
NOTE
Si el programa de instalación no finaliza correctamente, consulte los archivos de registro en la carpeta
%SYSTEMDRIVE%\ProgramData\VMMLogs . ProgramData es una carpeta oculta.
1: Suplantar la cuenta de
administrador de SQL Server con las
credenciales proporcionadas. El usuario
que ejecuta setup.exe debe
proporcionar valores para los
parámetros SqlDBAdminName,
SqlDBAdminPassword y
SqlDBAdminDomain.
IndigoHTTPSPort: 8101
IndigoNETTCPPort: 8102
IndigoHTTPPort: 8103
WSManTcpPort: 5985
BitsTcpPort: 443
Parámetros de Setup-exe
PA RÁ M ET RO DETA L L ES
1: Forzar la desinstalación.
NOTE
gMSA, cuando se usa como cuenta de servicio de VMM, debe tener los permisos Iniciar sesión como servicio y
Reemplazar un símbolo (token) de nivel de proceso.
Requisitos previos
1. Repase este artículo y cree la cuenta gMSA según las instrucciones disponibles en el artículo.
2. Asegúrese de que los servidores en los que desea instalar el servicio de administración de VMM tienen
permisos para recuperar la contraseña de la cuenta de gMSA.
NOTE
No es necesario especificar el SPN al crear la gMSA. El servicio VMM establece el SPN apropiado para la gMSA.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo instalar la consola System Center Virtual Machine Manager (VMM) en un
equipo remoto y conectarla con el servidor VMM. Cuando instala el servidor de administración de VMM, la
consola se instalará automáticamente.
Antes de empezar
Consulte los sistemas operativos compatibles para la consola que se detallan en los requisitos del sistema.
Revíselos y asegúrese de que los cumple. Obtenga información sobre los requisitos del sistema.
Asegúrese de tener al menos permisos de administrador local en el equipo en el que instala la consola.
La versión de VMM de la consola debe coincidir con la versión de System Center del servidor de VMM. Por
ejemplo, para conectar un servidor de VMM que ejecuta System Center 2016, la versión de la consola de
VMM también debe ser 2016.
Solo se puede instalar una versión de la consola en cada máquina.
Ejecución de la instalación
1. Consulte las instrucciones de planeación. Luego, haga clic con el botón derecho en VMM > Ejecutar como
administrador .
2. En la página principal de instalación, haga clic en Instalar y, en la página Seleccionar las características
que se van a instalar , active la casilla Consola VMM y haga clic en Siguiente . En la página Lea este
aviso , active la casilla Acepto los términos de este aviso y haga clic en Siguiente .
3. Revise la información de la página Datos de diagnóstico y uso y haga clic en Siguiente . En la página
Microsoft Update , seleccione si quiere usar Microsoft Update y, después, haga clic en Siguiente . Esta
página no aparecerá si ya se instalaron las actualizaciones.
4. En la página Ubicación de la instalación , escriba una ruta de acceso de instalación para los archivos de
programa de VMM o use la ruta predeterminada y luego haga clic en Siguiente . El programa de instalación
comprueba que el equipo cumpla con los requisitos de instalación de la consola.
5. En la página Configuración de puer to , escriba el puerto que quiere usar para que la consola VMM se
comunique con el servidor de administración VMM y luego haga clic en Siguiente . Los valores de puerto
que asigne a la consola VMM deben coincidir con los valores de puerto que asignó a la consola VMM
durante la instalación del servidor de administración VMM. La configuración predeterminada del puerto es
8100. Además, no debe asignar el número de puerto 5986 porque está preasignado.
6. En la página Resumen de la instalación , revise la configuración y haga clic en Instalar . Se mostrará la
página Instalando características con el progreso de la instalación.
7. En la página La instalación finalizó correctamente , haga clic en Cerrar para completar la instalación.
Seleccione Abrir la consola VMM cuando se cierre este asistente para abrir la consola cuando se
complete el asistente. Si el programa de instalación no finaliza correctamente, consulte los archivos de
registro en la carpeta %SYSTEMDRIVE%\ProgramData\VMMLogs . ProgramData es una carpeta oculta.
Si desea desinstalar la consola, haga lo siguiente:
1. En el Panel de control, haga clic para desinstalar un programa y seleccione Microsoft System Center Virtual
Machine Manager.
2. En Seleccionar características para quitar , haga clic en Consola VMM . En el servidor de administración
de VMM, no puede desinstalar la consola si no desinstala la administración de VMM.
3. En Resumen , revise la configuración y haga clic en Desinstalar .
PA RÁ M ET RO VA LO R
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información sobre cómo configurar la sesión de consola mejorada en System
Center Virtual Machine Manager (VMM).
La conexión de la consola en VMM ofrece una manera de conectarse a la máquina virtual sin una conexión de
red. Para información sobre cómo implementar la consola VMM, consulte el artículo sobre la instalación de la
consola VMM. Antes de la versión 1801, la conexión de la consola en Virtual Machine Manager solo admitía una
sesión básica, en la que texto del Portapapeles solo se podía pegar a través de la opción de menú Escribir texto
del Por tapapeles .
VMM 1801 y versiones posteriores admiten la sesión de consola mejorada. Con la consola conectada a través
de una sesión mejorada, las operaciones de Cor tar (Ctrl+X) , Copiar (Ctrl + C) y Pegar (CTRL+V) en el
texto y archivos ANSI están disponibles en el Portapapeles, con lo que se pueden usar los comandos de copiar y
pegar para archivos de texto desde y hacia la máquina virtual.
Antes de empezar
Asegúrese de cumplir los siguientes requisitos previos:
1. El sistema operativo del host en el que se ejecuta la máquina virtual debe tener Windows Server 2012 R2 o
una versión posterior.
2. El host Hyper-V debe tener una activada una directiva de modo de sesión mejorada.
3. El equipo desde donde se conecta a la máquina virtual debe ejecutar Windows 10, Windows 8.1, Windows
Server, Windows Server 2016 o posterior.
4. La máquina virtual debe tener habilitados los servicios de Escritorio remoto y ejecutar Windows 10,
Windows 8.1, Windows Server 2016, Windows Server 2012 R2 o posterior como sistema operativo invitado.
NOTE
Esta acción cerrará la sesión actual y abra una sesión nueva. Se le redirigirá a la pantalla de inicio de sesión de la
sesión nueva.
5. Una vez que vea la consola de máquina virtual, busque la opción Sesión mejorada en la parte superior
derecha de la página. Haga clic ahí para iniciar la ventana de sesión mejorada.
NOTE
Esta acción cerrará la sesión actual y abra una sesión nueva. Se le redirigirá a la pantalla de inicio de sesión de la
sesión nueva.
6. Para volver a las secciones básicas, haga clic en Open Basic Session (Abrir sesión básica) en la parte
superior.
6. Para volver a la sección básica, haga clic en Sesión básica en la parte superior derecha.
Una vez que se habilite la directiva Modo de sesión mejorada en el host:
Cierre todas las sesiones de consola abiertas para ver la opción Sesión mejorada .
Para una máquina virtual que se inicia por primera vez desde un VHD/VHDX, la opción de sesión mejorada
no aparece cuando se intenta conectar a través de la consola. Reinicie la máquina virtual y actualice sus
propiedades en VMM para que la opción de sesión mejorada aparezca en la ventana de conexión de la
consola.
Pasos siguientes
Uso de recursos locales en una máquina virtual Hyper-V con VMconnect
Implementar VMM para lograr una alta
disponibilidad
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Para lograr resistencia y escalabilidad, puede implementar System Center - Virtual Machine Manager (VMM) en
modo de alta disponibilidad.
Antes de comenzar
Realice los preparativos para una implementación de alta disponibilidad. Para ello, tenga en cuenta lo siguiente:
Solo se puede implementar una instancia de VMM en un clúster de conmutación por error de hasta 16
nodos.
Requisitos para equipos que funcionan como nodos de administración de VMM:
Todos los nodos de clúster que son servidores de VMM deben ejecutar Windows Server 2016.
Cada nodo del clúster debe estar unido a un dominio y debe tener un nombre de equipo que no
supere los 15 caracteres.
El nombre de red del servicio VMM no debe superar los 15 caracteres.
Windows ADK debe estar instalado en cada equipo. Instale desde el programa de instalación o desde
el Centro de descarga. Cuando instale, seleccione Herramientas de implementación y Entorno de
preinstalación de Windows .
Si planea implementar servicios de VMM que usen aplicaciones de capa de datos de SQL Server,
instale las utilidades de línea de comandos relacionadas en el servidor de administración de VMM. La
utilidad de línea de comandos está disponible en Feature Pack de SQL Server 2012, en Feature Pack
de SQL Server 2014 o en Feature Pack de SQL Server 2016.
No realice la instalación en una partición primaria del host de Hyper-V. Puede instalar VMM en una máquina
virtual.
Antes de empezar, configure la cuenta de servicio de VMM y la administración de claves distribuida. Más
información
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describen los pasos para implementar un servidor de alta disponibilidad System Center -
Virtual Machine Manager (VMM).
Antes de empezar
Lea los pasos de planeación para una implementación de alta disponibilidad.
Este procedimiento da por hecho que se está configurando un clúster de conmutación por error único con
dos o más servidores de archivos.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describen los pasos para implementar una base de datos de SQL Server de alta
disponibilidad para System Center - Virtual Machine Manager (VMM). Configure un clúster de SQL Server y
configure la base de datos VMM de SQL Server con grupos de disponibilidad AlwaysOn.
Antes de empezar
Lea la información de planeación correspondiente a una implementación de VMM de alta disponibilidad. Incluye
los requisitos previos y los problemas que debe conocer.
NOTE
Si experimenta errores de latencia alta o tiempo de expiración en un escenario de varias subredes, cambie la cadena de
conexión de VMM en la ruta de acceso HKLM\SOFTWARE\Microsoft\Microsoft System Center Virtual Machine Manager
Server\Settings\Sql\ConnectionString, agregue MultiSubnetFailover=True y reinicie el servicio VMM.
Implementación de una biblioteca VMM de alta
disponibilidad
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describen los pasos para implementar una biblioteca de System Center - Virtual Machine
Manager (VMM) de alta disponibilidad. Configure un clúster de conmutación por error de Windows que ejecute
el rol Servidor de archivo. Luego, cree recursos compartidos de archivo en el clúster y asígnelos como recursos
compartidos de biblioteca VMM.
Antes de empezar
Lea los pasos de planeación de una implementación de VMM de alta disponibilidad.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar la versión 1.2 del protocolo Seguridad de la capa de transporte
(TLS) con el servidor de System Center - Virtual Machine Manager (VMM).
Antes de empezar
VMM debe ejecutar VMM 2016 con el Paquete acumulativo de actualizaciones 4 o una versión posterior.
Las revisiones de seguridad deben estar actualizadas en el servidor VMM. Además, el servidor debe ejecutar
la base de datos VMM.
El servidor VMM debe estar ejecutándose. 4.6. de .NET. Siga estas instrucciones para determinar qué versión
de .NET hay instalada.
Para trabajar con TLS 1.2, los componentes de System Center generan los certificados autofirmados SHA1 o
SHA2. Si se usan certificados SSL de una entidad de certificación (CA), estos deben usar SHA1 o SHA2.
foreach($Protocol in $ProtocolList)
{
Write-Host " In 1st For loop"
foreach($key in $ProtocolSubKeyList)
{
$currentRegPath = $registryPath + $Protocol + "\" + $key
Write-Host " Current Registry Path $currentRegPath"
if(!(Test-Path $currentRegPath))
{
Write-Host "creating the registry"
New-Item -Path $currentRegPath -Force | out-Null
}
if($Protocol -eq "TLS 1.2")
{
Write-Host "Working for TLS 1.2"
New-ItemProperty -Path $currentRegPath -Name $DisabledByDefault -Value "0" -PropertyType
DWORD -Force | Out-Null
New-ItemProperty -Path $currentRegPath -Name $Enabled -Value "1" -PropertyType DWORD -
Force | Out-Null
}
else
{
Write-Host "Working for other protocol"
New-ItemProperty -Path $currentRegPath -Name $DisabledByDefault -Value "1" -PropertyType
DWORD -Force | Out-Null
New-ItemProperty -Path $currentRegPath -Name $Enabled -Value "0" -PropertyType DWORD -
Force | Out-Null
}
}
}
Exit 0
$NetRegistryPath = "HKLM:\SOFTWARE\WOW6432Node\Microsoft\.NETFramework\v4.0.30319"
New-ItemProperty -Path $NetRegistryPath -Name "SchUseStrongCrypto" -Value "1" -PropertyType DWORD -Force |
Out-Null
Pasos siguientes
Obtenga más información sobre el protocolo TLS 1.2.
Implementación y administración de paquetes
acumulativos de actualizaciones en VMM
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información sobre cómo instalar, comprobar y quitar paquetes acumulativos de
actualizaciones para System Center - Virtual Machine Manager (VMM).
NOTE
Los paquetes acumulativos de actualizaciones se instalan automáticamente si Microsoft Updates está establecido en
Automático. Si no se instalan automáticamente, puede instalarlos de forma manual.
NOTE
Compruebe que el trabajo se completa correctamente. En caso contrario, revise los detalles del error y vuelva a realizar la
copia de seguridad.
NOTE
En el marcador de posición <nombre_del_paquete> , escriba el nombre del paquete real.
Por ejemplo, para instalar el Paquete acumulativo de actualizaciones 2 para el servidor System Center 2016
Virtual Machine Manager (KB3209586), ejecute el siguiente comando:
msiexec.exe/update kb3209586_VMMser ver_amd64.msp
NOTE
Puede haber pasos de instalación adicionales específicos para una versión del paquete acumulativo de actualizaciones.
Consulte la guía de KB del paquete acumulativo de actualizaciones para asegurarse de que completa todos los pasos de
instalación.
NOTE
No todos los archivos binarios tienen el número de compilación del paquete acumulativo de actualizaciones actual. Sin
embargo, si los binarios no se muestran con el número de compilación del paquete acumulativo de actualizaciones
correspondiente, es probable que dicho paquete no se instalara correctamente.
NOTE
Para quitar una actualización mediante la línea de comandos, debe tener los dos identificadores únicos globales (GUID)
siguientes disponibles:
GUID del producto RTM
GUID de la revisión
NOTE
1. Puede crear una copia de seguridad de la base de datos en cualquier momento. Pero la base de datos solo se debe
restaurar si desinstala el paquete acumulativo de actualizaciones más reciente del servidor. Si desinstala un paquete
acumulativo de actualizaciones anterior, no es necesario que restaure la base de datos VMM.
2. Asegúrese de restaurar la copia de seguridad de la base de datos que creó antes de instalar el paquete acumulativo de
actualizaciones.
Para información sobre cómo restaurar la copia de seguridad de base de datos, consulte este artículo.
Tareas posteriores a la restauración
Esta sección solo se aplica si agrega un host o un servidor de biblioteca después de crear una copia de
seguridad de la base de datos y antes de desinstalar un paquete acumulativo de actualizaciones.
Una vez recuperada la base de datos VMM, debe realizar las siguientes acciones:
Quite todos los hosts que se quitaron de VMM desde que se hizo la última copia de seguridad.
Si se ha quitado un host desde que la última copia de seguridad, el host tendrá el estado Precisa atención
en la consola VMM. Además, las máquinas virtuales de ese host tendrán el estado El host no responde .
Quite las máquinas virtuales que se quitaron de VMM desde que se hizo la última copia de seguridad. Si un
host tiene una máquina virtual que se ha quitado desde la última copia de seguridad, la máquina virtual
tendrá el estado Falta en la consola VMM.
Agregue todos los hosts que se agregaron a VMM desde que se hizo la última copia de seguridad.
Si ha restaurado la base de datos VMM en un equipo diferente, deberá volver a asociar los hosts que tienen
el estado Acceso denegado en la consola VMM.
Un equipo se considera diferente si tiene un identificador de seguridad (SID) diferente. Por ejemplo, si
reinstala el sistema operativo en el equipo, el equipo tendrá un SID diferente, incluso si usa el mismo
nombre de equipo.
Para información sobre las tareas posteriores a la restauración, vea este artículo.
NOTE
Debe seguir estos pasos para cualquier otro recurso de tejido, como los proveedores de almacenamiento, servidores de
biblioteca, etc. que agrega después de crear una copia de seguridad de la base de datos.
Copia de seguridad y restauración de VMM
19/08/2021 • 16 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe el proceso de copia de seguridad y recuperación en un entorno de System Center -
Virtual Machine Manager (VMM) y se ofrecen algunas recomendaciones.
Antes de empezar
No use puntos de control para la recuperación ante desastres. Los puntos de control no crean duplicados
completos del contenido del disco duro ni copian los datos en un volumen independiente.
Puede usar un punto de control que sirva como copia de seguridad temporal, antes de actualizar un sistema
operativo en una máquina virtual. Esto le permite revertir la actualización si genera efectos adversos.
Debe usar una aplicación de copia de seguridad para realizar copias de seguridad de los datos y recuperarlos
en caso de pérdida de datos grave. Una opción es System Center Data Protection Manager (DPM).
Puede introducir datos como contraseñas de autorización de acceso remoto (RAA) y la clave de producto
cuando vuelva a instalar VMM. Sin embargo, algunos datos cifrados, como los roles de máquina virtual no se
pueden especificar de nuevo.
No se puede realizar una copia de seguridad de estos datos ni restaurarlos si se usa la interfaz de
programación de aplicaciones de protección de datos (DPAPI) para realizar copias de seguridad de VMM.
Los datos se perderán si se produce un error en el servidor de administración de VMM.
IMPORTANT
Existen varios métodos para recuperar el archivo de base de datos VMM creado mediante cualquiera de los siguientes
procedimientos de copia de seguridad. Un método, que requiere que el servidor de administración VMM esté en
funcionamiento, es usar la herramienta SCVMMRecover.exe , como se describe en Backup-SCVMMServer (aunque
SCVMMRecover.exe no es un cmdlet). Otro método, que no requiere que el servidor de administración VMM esté
en funcionamiento, consiste en realizar la restauración mediante las herramientas de SQL Server para restaurar y
adjuntar un archivo de base de datos.
Debe ser miembro del rol de usuario Administrador para poder realizar los procedimientos siguientes.
Realización de una copia de seguridad de la base de datos VMM con la consola VMM
1. En el área de trabajo Configuración , en la pestaña Inicio , grupo Copia de seguridad , haga clic en
Copia de seguridad .
2. En el cuadro de diálogo Copia de seguridad de Vir tual Machine Manager , escriba la ubicación del
archivo de copia de seguridad. Seleccione una carpeta que no sea un directorio raíz y a la que pueda
acceder SQL Server.
Puede comprobar el estado de la copia de seguridad en el área de trabajo Trabajos.
Para obtener información sobre cómo recuperar la copia de seguridad, consulte la nota Impor tante
antes de este procedimiento.
Realización de una copia de seguridad de la base de datos VMM con cmdlets en Windows PowerShell
1. Inicie una sesión de WindowsPowerShell.
2. En el símbolo del sistema de Windows PowerShell, ejecute los cmdlets Get-SCVMMServer y Backup-
SCVMMServer mediante la sintaxis siguiente:
Para obtener información sobre cómo recuperar la copia de seguridad, consulte la nota Impor tante antes de
estos procedimientos.
IMPORTANT
Se recomienda realizar diariamente una copia de seguridad de los archivos de configuración de máquina virtual (.vmc).
Realice un inventario de los hosts y, a continuación, efectúe una copia de seguridad de todas las máquinas
virtuales hospedadas. Para obtener la lista de los hosts que administra VMM, ejecute el cmdlet siguiente desde
una línea de comandos de Windows PowerShell:
NOTE
Después de reinstalar VMM, VMM actualiza las listas de control de cuentas (ACL) que quedaron obsoletas debido al error.
No es necesaria ninguna intervención.
Configurar la biblioteca en el tejido de proceso de
VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para conocer la biblioteca de System Center - Virtual Machine Manager (VMM) y cómo
interactuar con ella.
La biblioteca VMM es un recurso compartido de archivos que incluye un catálogo de recursos que se usan para
implementar máquinas virtuales y servicios en el tejido de VMM. La biblioteca almacena:
Recursos basados en archivos , como discos duros virtuales, imágenes ISO, scripts, archivos de
controlador y paquetes de aplicación (aplicaciones de capa de datos de SQL Server y Web Deploy).
Recursos no basados en archivos como plantillas de máquinas virtuales y plantillas de servicio que se
usan para crear máquinas virtuales y servicios.
Máquinas vir tuales sin conexión que se almacenan en la biblioteca.
Cuando instala VMM, de manera predeterminada se crea un recurso compartido de biblioteca único en el
servidor de administración de VMM. Puede agregar recursos compartidos adicionales. Para obtener una alta
disponibilidad, puede implementar un clúster de conmutación por error de servidores de archivos. No se admite
un servidor de archivos de escalabilidad horizontal (SOFS). Interactúe con bibliotecas y recursos de biblioteca
mediante la vista Biblioteca de la consola VMM.
Contenido de usuario de autoser vicio Los usuarios de autoservicio pueden cargar sus propios
recursos que pueden usarse cuando crean plantillas. Los
usuarios pueden compartir recursos con otros usuarios de
autoservicio.
Ser vicios y máquinas vir tuales almacenadas Los usuarios pueden almacenar sus máquinas virtuales que
no se encuentran en uso en el nodo almacenado de la
biblioteca de nube.
Actualizar catálogo y líneas base Si administra actualizaciones mediante VMM, entonces las
líneas base de actualización de WSUS se almacenan en la
biblioteca.
Administrar recursos compar tidos de biblioteca Puede administrar servidores de biblioteca, que se replican.
replicados Puede usar cualquier tecnología de replicación, como DFSR,
para administrar los recursos compartidos replicados a
través de VMM.
Pasos siguientes
Más información sobre agregar recursos basados en archivos a la biblioteca.
Agregar recursos basados en archivos a la
biblioteca VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Después de que haya configurado la biblioteca de System Center - Virtual Machine Manager (VMM), use este
artículo si quiere agregar recursos basados en archivos a la biblioteca y marcar objetos de la biblioteca como
equivalentes.
Puede agregar recursos basados en archivos a la biblioteca de esta manera:
Copiar archivos en el recurso compartido de la consola VMM
Importar y exportar recursos basados en archivos entre recursos compartidos de biblioteca
Copiar archivos en el recurso compartido de biblioteca desde fuera de la consola VMM
NOTE
Prepare el disco duro virtual con Sysprep y, después, agréguelo a la biblioteca VMM Más información.
Pasos siguientes
Obtenga información sobre cómo agregar perfiles a la biblioteca VMM.
Agregar perfiles a la biblioteca VMM
21/08/2021 • 12 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use este artículo para obtener información sobre los perfiles de System Center - Virtual Machine Manager
(VMM) y cómo agregarlos a la biblioteca VMM.
Un perfil VMM contiene una configuración que se usa cuando crea una nueva máquina virtual o una plantilla de
máquina virtual. Los perfiles facilitan la implementación ayudándole a crear rápidamente máquinas virtuales
con una configuración coherente. Los perfiles se pueden usar para restringir la configuración disponible para los
usuarios de autoservicio que crean nuevas máquinas virtuales.
USA DO EN P L A N T IL L A S DE USA DO EN P L A N T IL L A S DE
P ERF IL DETA L L ES M Á Q UIN A VIRT UA L SERVIC IO
Pasos siguientes
Obtenga información sobre cómo crear plantillas de VM y plantillas de servicio en la biblioteca VMM y cómo
agregarles perfiles.
Agregar plantillas de VM a la biblioteca VMM
19/08/2021 • 5 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre las plantillas de VM y el modo de administrarlas en la
biblioteca de System Center - Virtual Machine Manager (VMM).
Las plantillas le ayudan a crear máquinas virtuales con una configuración coherente. VMM proporciona dos
tipos de plantillas:
Las plantillas de VM son objetos de bases de datos almacenados en la biblioteca de VMM que se usan para
configurar máquinas virtuales de forma rápida.
Las plantillas de servicio definen el modo en que se configura un servicio. Incluyen información sobre las
máquinas virtuales que se implementan como parte del servicio, las aplicaciones que se instalan en las
máquinas virtuales y la configuración de red que debe usarse. Normalmente, las plantillas de servicio
contienen plantillas de VM.
Hay dos métodos para crear una plantilla de VM:
A partir de un disco duro virtual existente o una plantilla de VM de la biblioteca de VMM.
NOTE
Asegurarse de que el disco duro virtual se ha preparado con Sysprep.
Antes de empezar
Puede basar una nueva plantilla de máquina virtual en una plantilla de máquina virtual existente o en un
disco duro virtual que se almacena en la biblioteca. Puede establecer la configuración de hardware, la
configuración del sistema operativo invitado, la instalación de aplicaciones y las instancias de Microsoft SQL
Server. Puede configurar estas opciones manualmente o puede importar la configuración de un perfil
existente.
La configuración de direcciones IP estáticas solo está disponible cuando una VM se implementa desde una
plantilla de VM.
Si crea una plantilla de VM basada en Linux, algunas de las configuraciones específicas de Linux, como la
especialización del sistema operativo, solo funcionan si la VM basada en Linux se implementa en un host de
Hyper-V.
La opción para crear una plantilla de VM basada en una VM existente en un host no se aplica a las plantillas
de máquina virtual basada en Linux.
La configuración de la implementación de aplicaciones y de la implementación de SQL Server y las opciones
de servicio configurables solo se aplican cuando la VM se implementa como parte de un servicio.
Si concede derechos para una plantilla determinada a un usuario que no tiene derechos en la cuenta de
ejecución que se especifica en la plantilla, el usuario podría extraer de la plantilla las credenciales de la cuenta
de ejecución durante la implementación.
Antes de crear una plantilla basada en una VM, debe crear una nueva cuenta de administrador local en esa
VM. Si usa la cuenta de administrador integrada predeterminada se producirá un error de Sysprep. Además,
asegúrese de que la VM no está unida a un dominio.
Pasos siguientes
Revise lo siguiente sobre cómo crear máquinas virtuales basadas en la plantilla que acaba de crear.
Incorporación de plantillas de servicio a la
biblioteca VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo configurar las plantillas de servicio en la biblioteca de
System Center - Virtual Machine Manager (VMM).
Las plantillas de servicio agrupan máquinas virtuales para proporcionar una aplicación. Contienen información
sobre un servicio, incluidas las máquinas virtuales que se implementan como parte del servicio, las aplicaciones
instaladas en máquinas virtuales y la configuración de red que debe usarse. Puede agregar plantillas de
máquina virtual, configuración de red, aplicaciones y almacenamiento a una plantilla de servicio.
Las plantillas de servicio pueden ser de un solo nivel o de niveles múltiples:
Un servicio de un solo nivel contiene una máquina virtual que se usa como una aplicación específica.
Un servicio de niveles múltiples contiene varias máquinas virtuales. Por ejemplo, podría crear un servicio de
tres niveles con un nivel de back-end que ejecuta una base de datos de SQL Server, un nivel medio que
ejecuta el servidor de la empresa y un tercer nivel, que ejecuta una interfaz web de front-end.
Los niveles se pueden agregar según una copia de una plantilla de VM existente (que se puede personalizar)
o un disco duro virtual en la biblioteca.
Configure las plantillas de servicio mediante el diseñador de plantilla de servicio de VMM.
Antes de empezar
Puede crear plantillas de servicio si tiene permisos de administración delegados o de administración de VMM, o
bien si tiene una cuenta de usuario de autoservicio con Autor habilitado.
5. Puede hacer clic en un nivel para obtener acceso a sus propiedades en el panel de detalles del diseñador.
Haga clic en Ver todas las propiedades para modificar todas las propiedades en una sola vista. Estas son
las propiedades que puede modificar cuando seleccione verlas todas:
En General , especifique:
El orden en que se implementan y atienden los niveles. Por ejemplo, si necesita que el nivel de
base de datos se ejecute a fin de ejecutar una aplicación web de front-end, debe establecer el
nivel de base de datos en 1.
Si desea poder agregar máquinas virtuales adicionales al nivel para escalar horizontalmente
(puede escalar horizontalmente a 5 instancias de máquina virtual en un nivel).
Más de un dominio de actualización para minimizar las interrupciones de servicio cuando se
actualiza un nivel. VMM actualizará las máquinas virtuales del nivel según sus dominios de
actualización. VMM actualiza un dominio de actualización a la vez. Apaga las máquinas
virtuales del dominio, las actualiza, las pone en línea y pasa al dominio siguiente para disminuir
el impacto.
La creación de un conjunto de disponibilidad para el nivel. El conjunto de disponibilidad
permite que las máquinas virtuales del servicio se mantengan disponibles durante el
mantenimiento. VMM intenta separar las máquinas virtuales del mismo conjunto de
disponibilidad ubicándolas en hosts independientes.
En Configurar hardware , verá la configuración de hardware de la plantilla de máquina virtual
asociada. Puede seleccionar un perfil de hardware alternativo o configurar manualmente el hardware.
Para obtener más información, revise cómo crear un perfil de hardware.
En Configurar sistema operativo , verá la configuración de sistema operativo de la plantilla de
máquina virtual asociada. Puede seleccionar un perfil de SO invitado alternativo o configurar
manualmente los ajustes. Para obtener más información, revise cómo crear un perfil de SO invitado.
En Configuración de aplicación o Configuración de SQL Ser ver , puede seleccionar un perfil de
aplicación o SQL Server, o bien configurar los ajustes de un perfil nuevo. Obtenga más información
sobre los perfiles de aplicación y SQL Server.
Pasos siguientes
Configurar el equilibrio de carga para un nivel de servicio
Administrar la biblioteca VMM
19/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo administrar la biblioteca de System Center - Virtual
Machine Manager (VMM) actualizándola, moviendo archivos y quitando los recursos huérfanos.
Actualizar la biblioteca
De manera predeterminada, VMM actualiza todos los recursos compartidos de biblioteca una vez cada hora.
Puede cambiar la configuración de actualización predeterminada en General > Configuración de
biblioteca > Configuración > Modificar desde 366 horas (14 días). También puede deshabilitar las
actualizaciones automáticas de biblioteca.
Para realizar una actualización manual, seleccione Biblioteca > recurso compartido o servidor de biblioteca
> Actualizar recurso compar tido .
Durante una actualización de biblioteca, ocurre lo siguiente:
VMM agrega estos tipos de archivo a la vista Biblioteca : discos duros virtuales (excepto para aquellos
adjuntos a una máquina virtual almacenada), disquetes virtuales, imágenes ISO, archivos de respuesta,
scripts de PowerShell. Las instantáneas importadas a la biblioteca con máquinas virtuales de Hyper-V y
VMware aparecen en la pestaña Puntos de control de las propiedades de máquina virtual. Los archivos de
instantáneas no se muestran.
VMM indexa pero no muestra estos tipos de archivo:
Archivos asociados con máquinas virtuales almacenadas (archivo de configuración de máquina
virtual, discos duros virtuales adjuntos, archivos de estado guardados, instantáneas importadas,
puntos de control).
Archivos asociados con plantillas de máquina virtual.
Archivos de configuración:
Hyper-V (.exp -export, .vsv -savedstate, .bin)
Servidor virtual (.vmd, .vsv)
VMware (.vmtx, .vmx)
Transferir archivos
Tiene acceso directo para copiar y mover archivos de biblioteca mediante Windows Explorer. Cada archivo de un
recurso compartido de biblioteca tiene un GUID único y se indexa periódicamente durante las actualizaciones de
la biblioteca. Después de que un archivo se actualice, puede moverlo a cualquier otra ubicación de un recurso
compartido de biblioteca administrado por VMM y la actualización realiza automáticamente un seguimiento del
movimiento del archivo. Después del movimiento, los metadatos del archivo se actualizan durante la siguiente
actualización de la biblioteca.
Además, puede permitir transferencias de archivos no cifrados a un servidor de biblioteca y desde este.
Para transferir archivos no cifrados, se debe permitir esta característica tanto en los servidores de origen
como en los de destino.
Para habilitar la opción, haga clic en Biblioteca > Ser vidor de biblioteca y vaya al servidor. Haga clic en
Acciones > Ser vidor de biblioteca > Propiedades , seleccione Permitir transferencias de archivos
sin cifrar .
VMM ahora admite la administración de servidores de biblioteca, que se replican. Puede usar cualquier
tecnología de replicación, como DFSR, para replicar recursos compartidos y administrarlos a través de VMM.
Para administrar de forma eficaz los recursos compartidos replicados mediante VMM, deshabilite el uso de la
secuencia de datos alternativa tanto para los recursos compartidos de biblioteca de origen como de destino.
Puede hacerlo mientras agrega nuevos recursos compartidos de biblioteca o editando las propiedades de los
recursos compartidos de biblioteca existentes. La secuencia de datos alternativa está habilitada de forma
predeterminada. Deshabilite esta opción solo cuando se usa la replicación entre recursos compartidos de
biblioteca.
VMM genera un GUID para todos los objetos de biblioteca administrados por VMM. Estos metadatos se
escriben en la secuencia de datos alternativa del archivo. VMM usa la secuencia de datos alternativa para
identificar objetos de biblioteca como los mismos objetos, mientras que se mueven entre carpetas en recursos
compartidos de biblioteca o en escenarios donde se cambia el nombre de un objeto de biblioteca. Una
secuencia de datos alternativa deshabilitada afecta a la identificación del objeto como el mismo objeto en los
escenarios mencionados anteriormente.
Sin embargo, para la administración eficaz de los recursos compartidos de biblioteca replicados mediante VMM,
es necesario deshabilitar la opción Usar secuencia de datos alternativa.
Cambiar el nombre de los archivos de biblioteca en recursos compartidos de biblioteca replicados o mover
dichos archivos
Si ha optado por deshabilitar la escritura en la secuencia de datos alternativa, algunos escenarios, como el
cambio de nombre o el traslado a un recurso compartido de biblioteca diferente, podrían ser efectivos. Para
garantizar que estos escenarios funcionen bien, siga estos pasos:
1. Asegúrese de que el archivo que desea mover o cuyo nombre desea cambiar esté replicado en todos los
recursos compartidos de biblioteca.
2. Actualice todos los recursos compartidos de biblioteca replicados.
3. Cambie el nombre del archivo de la biblioteca en el recurso compartido de biblioteca principal o traslade
dicho archivo.
NOTE
No se admite el almacenamiento de máquinas virtuales y plantillas de máquinas virtuales de VMWare en recursos
compartidos de biblioteca con UseAlternateDataStream establecido en false.
Configuración de grupos host en el tejido de
proceso de VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo configurar y administrar grupos host en el tejido de
System Center - Virtual Machine Manager (VMM).
Un grupo host de VMM es una entidad lógica que agrupa los recursos de tejido. Puede agrupar clústeres o hosts
de máquina virtual, o bien crear grupos host anidados. Después de crear los grupos host, asigne y configure
recursos a nivel de grupo host. Luego, esos recursos se aplican a todos los hosts y clústeres del grupo.
Puede crear grupos host según distintos criterios. Por ejemplo, según la ubicación física, las funcionalidades de
hardware o cargas de trabajo específicas. Puede asignar permisos para los grupos host a los roles de usuario
administrador de solo lectura, administradores delegados y administrador de VMM. Los miembros de estos
roles de usuario pueden ver y administrar los recursos de tejido que se les asigna a niveles de grupo host.
Cuando cree nubes privadas en VMM, seleccione qué grupos host se incluirán en la nube y, luego, asígnele
recursos en los grupos host a la nube.
TA B UL A C IÓ N P RO P IEDA D
Reglas de selección de ubicación VMM identifica de forma automática el host más adecuado
en el que puede implementar máquinas virtuales. No
obstante, se pueden especificar reglas de selección de
ubicación personalizadas. De manera predeterminada, un
grupo host usa la configuración de selección de ubicación del
grupo host primario.
TA B UL A C IÓ N P RO P IEDA D
CPU
Memoria
E/S de disco
Espacio en disco
E/S de red
Grupos de direcciones IP
Equilibradores de carga
Redes lógicas
Máquina virtual
Clúster de hosts
Grupo host
Plantilla de servicio
Instancia de servicio
Nivel de equipo
Nube
Pasos siguientes
Después de crear los grupos host, puede implementar hosts de Hyper-V en el tejido de VMM.
Agregar servidores de Windows como hosts o
clústeres de Hyper-V en el tejido de proceso de
VMM
19/08/2021 • 12 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo agregar un servidor de Windows existente como un
servidor host o clúster de Hyper-V al tejido de System Center - Virtual Machine Manager (VMM) y configurar las
propiedades del host y del clúster.
El artículo es relevante para agregar equipos con un servidor de Windows con o sin el rol Hyper-V. Si agrega un
servidor de Windows que no tiene instalado Hyper-V, VMM instalará el rol Hyper-V, siempre que el servidor
cumpla con los requisitos previos.
Antes de empezar
Los requisitos previos para agregar un servidor host o clúster de Hyper-V existente dependen de si está
instalado Hyper-V y de dónde se encuentra el servidor.
Ser vidor sin Hyper-V Si quiere agregar un servidor que no tiene Hyper-V
instalado, debe cumplir con los requisitos previos para la
instalación de Hyper-V.
Mismo dominio que el ser vidor VMM o dominio de Debe especificar las credenciales de una cuenta que tenga
confianza bidireccional derechos administrativos en los equipos que quiera agregar.
Puede especificar un nombre de usuario y una contraseña o
especificar una cuenta de ejecución.
Espacio de nombres separado (el sufijo DNS no El servicio System Center Virtual Machine Manager debe
coincide con el dominio del que es miembro) ejecutarse como la cuenta del sistema local o como una
cuenta de dominio que tenga permiso para registrar un
nombre de entidad de seguridad de servicio (SPN) en Active
Directory.
Red perimetral o grupo de trabajo Deberá instalar el agente VMM de forma local en el host de
destino. Para ello, ejecute la instalación de VMM como
administrador y haga clic en Instalaciones opcionales >
Agente Local. En Carpeta de archivos de seguridad
seleccione Este host está en una red perimetral y
escriba una clave de cifrado. En Nombre de red de host ,
especifique cómo se pondrá en contacto el servidor VMM
con el servidor host y apunte el nombre de equipo o la
dirección IP. Finalice el asistente.
NOTE
Después de la instalación del agente VMM en el host, la cuenta de equipo local se agrega automáticamente al grupo de
administradores locales. No se trata de un requisito obligatorio para el agente VMM; si es necesario, puede quitar
manualmente la cuenta de equipo local del grupo de administradores en el host.
Agregar servidores
1. En la consola VMM, abra Tejido > Ser vidores .
2. Haga clic en Agregar grupo > Agregar recursos > Hosts y clústeres de Hyper-V .
3. En Asistente para agregar recursos > Ubicación de recursos , seleccione dónde se encuentra el
servidor que quiere agregar.
Si va a agregar un host en una red perimetral, seleccione Equipos de Windows Ser ver en una red
perimetral .
4. En Credenciales , escriba las credenciales de una cuenta de dominio que tenga permisos administrativos
en todos los hosts que quiera agregar. (En equipos en un dominio que no sea de confianza, debe usar una
cuenta de ejecución).
5. En Ámbito de detección , especifique:
Mismo dominio o dominios con confianza bidireccional :
Si hace clic en Especificar equipos de Windows Ser ver por nombres , en Nombres de
equipo , escriba los nombres o direcciones IP, uno por línea. Si va a agregar un clúster de hosts
de Hyper-V, especifique el nombre o la dirección IP del clúster o de cualquier nodo del clúster.
Si hace clic en Especifique una consulta de Active Director y para buscar equipos con
Windows Ser ver , puede escribir o generar una consulta.
Dominio que no es de confianza : no aparece la página Detección.
Espacio de nombres separado : escriba el FQDN del host y seleccione Omitir verificación de AD .
6. En Recursos de destino , especifique los equipos que quiera agregar. Repita los pasos para todos los
hosts. Si el resultado de la detección es satisfactorio, el host aparecerá en Nombre de equipo . Agregue
de la siguiente forma:
Dominio de confianza o espacio de nombres separado : active la casilla que hay junto a cada
equipo que quiera agregar y después haga clic en Siguiente. Si ha especificado un nombre de clúster o
nodo de clúster en el paso anterior, active la casilla que hay junto al nombre de clúster. (El nombre de
clúster aparece junto a los nodos de clúster asociados.)
Dominio que no es de confianza : escriba la dirección IP o FQDN del servidor o clúster que quiera
agregar y luego haga clic en Agregar. Si es un clúster, puede especificar una dirección IP o FQDN del
clúster o de uno de los nodos del clúster.
Red perimetral o grupo de trabajo : escriba el nombre NETBIOS o la dirección IP del host en la red
perimetral. Escriba la clave de cifrado creada al instalar el agente en el host y, en la ruta de acceso del
archivo de seguridad, escriba la ruta de acceso al archivo SecurityFile.txt.
7. En la lista Configuración de host > Grupo host , haga clic en el grupo host al que quiere asignar el
host o clúster de hosts. Si el host ya está asociado a otro servidor de administración de VMM, seleccione
Reasociar este host con este entorno de VMM . Si el host estaba asociado con otro servidor de
administración de VMM, dejará de funcionar en ese servidor.
Para un host independiente, en Agregue la siguiente ruta de acceso , especifique una ruta de
acceso del host para almacenar los archivos de los equipos virtuales que se implementan en el host y
haga clic en Agregar . Repita el proceso para agregar más de una ruta de acceso. Si la ruta de acceso
no existe, se crea de forma automática. Si deja el cuadro en blanco, el valor predeterminado es
%SystemDrive%\ProgramData\Microsoft\Windows\Hyper-V. Como procedimiento recomendado, no
agregue rutas de acceso predeterminadas que estén en la misma unidad que los archivos del sistema
operativo.
Para un clúster, no especifique rutas de máquina virtual predeterminadas. VMM administra de forma
automática las rutas de acceso disponibles para máquinas virtuales basándose en el almacenamiento
compartido que está disponible en el clúster de hosts
8. En la página Resumen , confirme la configuración y haga clic en Finalizar . Aparece el cuadro de diálogo
Trabajos , donde se muestra el estado del trabajo. Espere a que aparezca el estado Completado.
Compruebe que el host o clúster se ha agregado en el grupo host > nombre de host o clúster. El estado
debe ser Correcto .
P ESTA Ñ A C O N F IGURA C IÓ N
Actualizar el estado.
Rutas de acceso de máquina vir tual/Máquinas Muestra las máquinas virtuales que residen en el host, junto
vir tuales con la información de estado. También permite registrar las
máquinas virtuales en el host.
Rutas de acceso de selección de ubicación /Selección Permite configurar las rutas de acceso de la máquina virtual
de ubicación predeterminada y las rutas de acceso al disco primario que
se usará durante la selección de máquina virtual en el host.
Volúmenes compar tidos Muestra los volúmenes compartidos (CSV) que se asignan al
clúster de hosts. También puede hacer lo siguiente:
Puede usar System Center - Virtual Machine Manager (VMM) para administrar hosts y máquinas virtuales que
ejecutan un servidor Nano.
Con VMM puede agregar y administrar hosts existentes que ejecuten Nano, configurar máquinas sin sistema
operativo como hosts basados en Nano Server e implementar clústeres de proceso y clústeres de
almacenamiento (desagregados e hiperconvergidos). Puede administrar las máquinas virtuales basadas en
Nano, incluidas las máquinas virtuales blindadas.
Antes de empezar
Para la implementación de máquinas virtuales, debe crear el disco duro virtual de Nano Server fuera de
VMM.
No puede crear una plantilla de máquina virtual desde una máquina virtual con servidor Nano en VMM.
Puede crear una plantilla de máquina virtual desde cero usando un disco duro virtual de Nano Server.
Hay algunos problemas conocidos al conectar una máquina virtual con servidor Nano a un dominio. Si
intenta conectar la máquina virtual a un dominio con los detalles de personalización en una plantilla de
máquina virtual, VMM ignora la información de dominio. La máquina virtual se implementa, pero no se
conecta al dominio. Como solución, implemente la máquina virtual y, después, conéctela al dominio. Más
información. Tenga en cuenta que la unión de un dominio a un equipo físico durante la implementación sin
sistema operativo funciona correctamente.
4. Cree un disco duro virtual que incluya los paquetes VMM. Para ello, ejecute el comando siguiente que le
pedirá una contraseña de administrador para el nuevo disco duro virtual:
Por ejemplo:
En este ejemplo se crea un disco duro virtual a partir de una ISO montada como F:
Al crear el disco duro virtual, usa una carpeta denominada Base en la misma carpeta en la que ha
ejecutado New-NanoSer verImage
Coloca el disco duro virtual en una carpeta denominada Nano1 , en la carpeta desde la que se ejecuta
el comando.
El nombre de equipo en este ejemplo es Nano-sr v1 . Incluye los controladores de OEM instalados
para el hardware más común y tiene habilitada la característica de agrupación en clústeres.
El VHD tiene habilitada la administración remota del servidor Nano, incluso desde los sistemas que no
están en la misma subred.
Si el servidor usa UEFI para arrancar, debe cambiar el script de NanoSer ver.vhd a
NanoSer ver.vhdx .
5. Inicie sesión como administrador en el servidor físico donde quiere ejecutar el disco duro virtual de Nano
Server.
6. Copie el disco duro virtual que crea el script en el equipo físico y configúrelo para que arranque desde el
nuevo disco duro virtual, como se indica a continuación:
Monte el VHD generado.
Ejecute bcdboot d:\windows (en este ejemplo, está montado en D:)
Desmonte el disco duro virtual.
7. Arranque el equipo físico en el disco duro virtual de Nano Server.
8. Inicie sesión en la consola de recuperación de Nano Server con el nombre del administrador y la
contraseña que ha proporcionado al ejecutar el script y obtenga la dirección IP del host basado en Nano
Server. Más información.
9. Asegúrese de que el servidor Nano está unido al mismo dominio que el servidor VMM. Más información.
10. Asegúrese de que la cuenta de servicio de VMM y la cuenta de ejecución se agregan al grupo de
administradores en Nano Server.
Instalar los paquetes de VMM sin conexión en un Nano Server existente
Si no ha agregado los paquetes VMM al crear el disco duro virtual de Nano Server, puede instalarlos más tarde,
como se muestra a continuación:
1. Copie el VHD/VHDX a una ubicación en un equipo Windows Server 2016. Por ejemplo: C:\MyNano.vhd.
2. Use PowerShell para instalar e importar el proveedor de NanoServerPackage del módulo de PowerShell
PackageManagement (OneGet):
Install-PackageProvider NanoServerPackage
Import-PackageProvider NanoServerPackage
3. Después de instalar el proveedor, puede buscar e instalar los paquetes VMM (agente VMM y Hyper-V), en
el disco duro virtual con estos cmdlets, donde C:\MyNano.vhd es la ubicación del disco duro virtual
basado en Nano Server.
Find-NanoServerPackage
Install-NanoServerPackage -Name Microsoft-NanoServer-SCVMM-Package -culture en-US -ToVhd
"C:\MyNano.vhd"
Install-NanoServerPackage -Name Microsoft-NanoServer-SCVMM-Compute-Package -culture en-US -ToVhd
"C:\MyNano.vhd"
NOTE
Asegúrese de que los archivos es-es (Microsoft-NanoServer-SCVMM-Package_es-es.cab) y los archivos
.cab independientes (Microsoft-NanoServer-SCVMM-Package.cab) están en la misma carpeta para que
ambos se instalen.
4. Ejecute el comando siguiente para comprobar que los paquetes VMM y los paquetes de idioma asociados
se instalan correctamente:
Ejemplo:
5. En este ejemplo se crea un disco duro virtual a partir de una ISO montada como F.
6. Al crear el disco duro virtual, usará una carpeta denominada Base en el mismo directorio en el que ha
ejecutado New-NanoServerImage
7. Colocará el disco duro virtual en una carpeta denominada Nano1, en la carpeta desde la que se ejecuta el
comando.
8. El nombre de equipo será Nano1 e instalará controladores de máquina virtual que ejecutan Hyper-V.
9. Si quiere una máquina virtual de generación 1, genere una imagen de disco duro virtual mediante una
extensión .vhd para -TargetPath. Si quiere una máquina virtual de generación 2, genere una imagen de
VHDX con la extensión .vhdx para -TargetPath.
10. En VMM, cree una máquina virtual y use el disco duro virtual que ha creado.
Pasos siguientes
Aprovisionar una máquina virtual
Ejecución de un script en un host remoto mediante
la característica Ejecutar comando de script
21/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
System Center Virtual Machine Manager (VMM) permite ejecutar comandos de forma remota en un host
usando la característica Ejecutar comando de script. Esta característica es útil en escenarios en los que se quiere
iniciar un servicio o recopilar información de un host remoto.
También puede ejecutar el script en el host usando los recursos personalizados que haya agregado a la
biblioteca de VMM. Los recursos personalizados pueden comprender archivos en lotes que pueden ejecutar
comandos específicos en el servidor, pero el uso de estos recursos no es necesario.
El archivo de lotes ejecuta el comando net stop sftlist/y y, después, net start stflist. En este escenario, la
carpeta de recursos personalizados se transfiere al host del agente y se copia en windows\temp. Se crea
una carpeta con el formato, scvmm.xxxxxxxx , para contener todos los archivos. A partir de aquí, ejecuta
el archivo de lotes y el agente devuelve la salida correspondiente a VMM, que se muestra en el trabajo. Si
se produce un error en el script, se creará un registro en la ubicación especificada.
Aprovisionamiento de un clúster desde hosts
independientes de Hyper-V en el tejido de VMM
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use las instrucciones que aparecen en este artículo para crear un clúster desde servidores de host de Hyper-V
independientes que se administran en el tejido de System Center - Virtual Machine Manager (VMM).
Antes de empezar
REQ UISITO P REVIO DETA L L ES
Crear un clúster
1. En la consola VMM, haga clic en Tejido > Crear > Clúster de Hyper-V para abrir el Asistente de creación
de clúster de Hyper-V.
2. En General , especifique un nombre de clúster y elija el grupo host donde se ubican los hosts de Hyper-V
existentes.
3. En Tipo de recurso , seleccione la cuenta de ejecución que se va a usar para crear el clúster. La cuenta que
use debe tener permisos administrativos en los servidores que se convertirán en nodos de clúster y debe
pertenecer al mismo dominio que los hosts de Hyper-V que desea agrupar. Además, la cuenta requiere el
permiso para crear objetos de equipo en el contenedor que se usa para cuentas de equipo en el dominio.
Asegúrese de que la opción Ser vidores de Windows existente está seleccionada, y, si no necesita soporte
técnico de Microsoft para este clúster, puede seleccionar Omitir validación de clúster .
4. En Nodos , seleccione los servidores de host de Hyper-V que desea incluir en el clúster. Puede seleccionar
varios hosts mediante la tecla CTRL o un intervalo con la tecla MAYÚS.
5. En Dirección IP (si aparece), escriba la dirección IP que desea usar para el clúster.
6. En Almacenamiento , seleccione los discos de datos que desea que el clúster use. La lista de discos
disponibles incluye las unidades lógicas asociadas con el grupo host que seleccionó al principio del asistente.
Si asigna almacenamiento fuera de banda, los discos que no están administrados por VMM se
muestran y se seleccionan como discos disponibles, con la casilla de verificación junto a cada disco
atenuada y no disponible.
Si usa una solución de sistema de archivos de clúster (CFS) de terceros, asegúrese de tener en
cuenta que los discos son discos CFS. No seleccione esos discos para el clúster. De lo contrario,
se producirá un error al crear el clúster. Si usa una solución de sistema de archivos de clúster -
(CFS) de terceros, asegúrese de tener en cuenta que los discos son discos CFS. No seleccione
esos discos para el clúster. De lo contrario, se producirá un error al crear el clúster.
Si el número de hosts seleccionados para el clúster es par, el disco más pequeño que es mayor
que 500 megabytes (MB) se selecciona automáticamente como el disco testigo y no está
disponible para la selección.
7. En Conmutadores vir tuales , puede seleccionar las redes lógicas que se usarán cuando VMM crea
automáticamente conmutadores virtuales en los nodos de Hyper-V. Seleccione los conmutadores virtuales
externos en los nodos de Hyper-V de destino. VMM creará automáticamente los conmutadores virtuales en
todos los nodos de Hyper-V.
8. En Resumen , confirme la configuración y, luego, haga clic en Finalizar . Puede supervisar el estado del
clúster en la página Trabajos . Después de que finalice el trabajo, puede comprobar la información del
clúster; para ello, haga clic en la pestaña Propiedades > Estado en el clúster. También puede hacer clic con
el botón derecho en el clúster y hacer clic en Validar clúster .
Esto es lo que hace VMM después de crear el clúster:
1. Valida que todos los hosts cumplan los requisitos, tales como el sistema operativo requerido y la pertenencia
a un dominio
2. Habilita la característica de clústeres de conmutación por error en cada host
3. Quita la máscara de las unidades lógicas de almacenamiento seleccionadas en cada host
4. Ejecuta el proceso de validación de clústeres
5. Crea el clúster con la configuración de cuórum, configura cualquier valor de IP estática del clúster que haya
especificado y habilita volúmenes compartidos de clúster (CSV).
6. Para cada unidad lógica que se designa como CSV, asigna la unidad lógica como CSV en el clúster
Pasos siguientes
Aprovisionar las máquinas virtuales
Aprovisionar un host o clúster de Hyper-V de
equipos sin sistema operativo
19/08/2021 • 25 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use este artículo para aprovisionar un host o clúster de Hyper-V de equipos sin sistema operativo sin nada
instalado, en el tejido de System Center - Virtual Machine Manager (VMM).
Además de agregar los servidores de Windows existentes al tejido como los hosts y clústeres de Hyper-V, VMM
puede detectar máquinas físicas sin sistema operativo, instalar automáticamente un sistema operativo y
aprovisionarlas como clústeres y hosts de servidor de Hyper-V.
Este es el procedimiento para hacerlo:
1. Comprobar requisitos previos : asegúrese de que cumple todos los requisitos previos antes de comenzar.
2. Configuración inicial : configure el BIOS en la máquina para la compatibilidad con la virtualización, la
configuración del orden de arranque del BIOS para arrancar desde un adaptador de red habilitado para un
entorno de ejecución previo al arranque (PXE) como primer dispositivo y la configuración de credenciales de
inicio de sesión y dirección IP para el BMC de cada equipo. Debe crear entradas DNS y cuentas de Active
Directory para los nombres de máquina, y es recomendable dejar tiempo para la replicación de DNS.
3. Preparar el entorno del ser vidor PXE : agregue el servidor PXE a la administración de VMM, como se
describe en Requisitos previos de creación de hosts, clústeres de hosts o clústeres de servidores de archivos
de escalabilidad horizontal sin sistema operativo en VMM y Cómo agregar un servidor PXE a VMM.
4. Agregar recursos a la biblioteca de VMM : agregue recursos que incluyan un disco duro virtual
generalizado con un sistema operativo adecuado (como se muestra en Requisitos previos de creación de
hosts, clústeres de hosts o clústeres de servidores de archivos de escalabilidad horizontal sin sistema
operativo en VMM) para usarlos como imagen base y archivos de controlador opcionales para agregarlos al
sistema operativo durante la instalación.
5. Crear perfiles : en la biblioteca, cree uno o varios perfiles de equipo físico. Estos perfiles incluyen opciones
de configuración, tales como la ubicación de la imagen del sistema operativo y los valores de configuración
de hardware y del sistema operativo.
6. Crear el host o clúster de Hyper-V : ejecutará asistentes diferentes en función de si quiere configurar un
host independiente o un clúster.
Antes de comenzar
NOTE
VMM no admite el aprovisionamiento completo de las máquinas físicas en el espacio de nombres separado. Como
solución alternativa, siga estos pasos:
1. Aprovisione de manera completa en un dominio de espacio de nombres no contiguos.
2. Quite el host aprovisionado de VMM.
3. Una el host para el dominio del espacio de nombres no contiguo que le interese.
4. Vuelva a agregar el host a VMM. Use este procedimiento.
Equipo físico Compatibilidad para la detección Cada equipo físico debe tener un
controlador de administración de placa
base (BMC) instalado que permita la
administración fuera de banda.
Mediante un BMC, puede tener acceso
al equipo de forma remota,
independientemente del sistema
operativo, y controlar funciones del
sistema tales como la capacidad de
apagar o encender el equipo.
Requisitos de BMC:
Equipo físico Requisitos del rol de Hyper-V El equipo que admite el rol Hyper-V
debe usar procesadores basados en
x64 y tener habilitada la configuración
apropiada del sistema básico de
entrada y salida (BIOS).
Disco duro vir tual Sistema operativo Asegúrese de que tiene un disco duro
virtual generalizado en un recurso
compartido de biblioteca VMM.
Debería ejecutarse en Windows Server
2012 R2 o posterior.
Si va a asignar controladores
personalizados, deben existir en la
biblioteca.
Perfil de equipo físico Archivo de respuesta Si quiere que un perfil de equipo físico
incluya referencias a un archivo de
respuesta (archivo Unattend.xml) o a
recursos personalizados (por ejemplo,
un instalador de aplicación al que se
haga referencia en los comandos de
script posteriores a la implementación),
cree el archivo de respuesta u obtenga
los recursos personalizados antes de la
implementación y agréguelos al
recurso compartido de biblioteca
VMM. Dentro de un recurso
compartido de biblioteca, coloque los
recursos personalizados en una o más
carpetas con una extensión .CR
(recurso personalizado). VMM los
reconocerá como recursos
personalizados. Por ejemplo, puede
que quiera crear un archivo de
respuesta para habilitar los Servicios
de Escritorio remoto y colocarlos en un
recurso compartido de biblioteca.
Después, puede seleccionar ese archivo
cuando configure un perfil de equipo
físico.
#Enable RDMA, assuming customer chosen switch name for storage as Storage1Switch and Storage2Switch
Enable-NetAdapterRDMA "Storage1Switch"
Enable-NetAdapterRDMA "Storage2Switch"
#disable ipv6
netsh int ipv6 isatap set state disabled
#Configure SET team mapping between virtual network adapter to physical network adapters. (Note: to get
names of adapters, use command Get-NetAdapater. For team mapping use command
$physicalAdapters = Get-NetAdapter -Physical
$virtualStorageAdapter1 = Get-VMNetworkAdapter -ManagementOS | Where-Object {$_.Name -eq "Storage1Switch"}
$virtualStorageAdapter1 = Get-VMNetworkAdapter -ManagementOS | Where-Object {$_.Name -eq "Storage2Switch"}
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use este artículo si quiere crear un clúster de conmutación por error invitado mediante una plantilla de servicio
de System Center - Virtual Machine Manager (VMM).
Un clúster de conmutación por error invitado está formado por varias máquinas virtuales que se implementan
en un clúster y usan el almacenamiento compartido. Los servicios de VMM se usan para agrupar máquinas
virtuales para proporcionar una aplicación. Las plantillas de servicio contienen información sobre un servicio,
incluidas las máquinas virtuales que se implementan como parte del servicio, las aplicaciones que se van a
instalar en máquinas virtuales y la configuración de red que debería usarse. En las plantillas de servicio se
pueden agregar plantillas de máquina virtual, configuración de red, aplicaciones y almacenamiento. Más
información.
Puede usar plantillas de servicio para crear un clúster invitado. Después, ese clúster puede configurarse para
ejecutar una aplicación como SQL Server.
Antes de empezar
Las máquinas virtuales de un clúster invitado solo pueden implementarse en clústeres de hosts de Hyper-V
que ejecutan Windows Server 2012 R2 o posterior. De lo contrario, se producirá un error de implementación.
Puede implementar un clúster de conmutación por error invitado que usa archivos .vhdx compartidos en un
clúster de conmutación por error de Hyper-V. En este escenario, si Hyper-V usa volúmenes compartidos de
clúster (CSV) en el almacenamiento de nivel de bloque, los archivos vhdx compartidos se almacenan en un
CSV que se configura como almacenamiento compartido.
Como alternativa, Hyper-V puede usar almacenamiento basado en archivos SMB implementado por el
servidor de archivos de escalabilidad horizontal (SOFS), como la ubicación de los archivos .vhdx
compartidos.
No se admite ningún otro tipo de almacenamiento compartido para los clústeres invitados. No se admite el
almacenamiento SMB de terceros.
Necesita varios scripts para crear el clúster invitado, tales como un script para ejecutarse en la primera
máquina virtual del clúster y un script para ejecutarse en otras máquinas virtuales de forma que puedan
unirse al clúster. La configuración del script se especifica en la configuración de la aplicación de la plantilla de
servicio.
Para configurar los discos compartidos del clúster, necesitará usar nuevos archivos VHDX. No reutilice los de
un clúster anterior. Asegúrese de que los archivos de disco duro se encuentran en la biblioteca VMM.
Identifique una única ruta de acceso en el almacenamiento basado en SCSI donde se colocarán todos los
archivos VHDX para el clúster invitado durante la implementación. Puede usar clasificaciones de
almacenamiento para controlar la ubicación de los archivos VHDX, pero necesitará al menos una ubicación
en la clasificación con la capacidad para mantener todos los archivos VHDX. VMM no implementa los
archivos VHDX en varias ubicaciones.
Puede modificar la ubicación de los archivos VHDX durante la implementación, incluso si usa la misma
plantilla de servicio para implementar varios clústeres invitados. Para ello, deberá implementar los clústeres
invitados en un grupo host y no en una nube. Después, en la implementación, especifique una ruta de acceso
única para todos los archivos VHDX compartidos del clúster. Esto invalida la ubicación que se ha especificado
en la plantilla de máquina virtual.
Necesitará un archivo de disco duro virtual que contenga el sistema operativo (preparado con Sysprep) que
quiera que usen las máquinas virtuales del clúster invitado. Cuando se crea cada nodo, VMM usa una copia
del archivo de disco duro virtual para el disco del sistema del nodo.
Pasos siguientes
Implementar máquinas virtuales desde una plantilla
Configurar redes para hosts y clústeres de Hyper-V
en el tejido de VMM
21/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para configurar hosts y clústeres de Hyper-V en el tejido de proceso de System Center - Virtual
Machine Manager (VMM).
Puede aplicar la configuración de red a un host o clúster de Hyper-V mediante un conmutador lógico. Aplicar un
conmutador lógico garantiza que las redes lógicas, y otras opciones de red, se asignen sistemáticamente a
varios adaptadores de red físicos.
Antes de empezar
Si quiere configurar la red de forma manual, asegúrese de haber configurado redes lógicas antes de
comenzar. Además, asegúrese de que los sitios de red de las redes lógicas están configurados para usar el
grupo host del host al que los quiere asignar. Active esta opción en Tejido > Ser vidores > Todos los hosts
y haga clic en el grupo host. En Hosts , haga clic en el host > Propiedades .
Si quiere usar un conmutador lógico, debe crear los perfiles de puerto y conmutador lógico.
En esta sección se proporciona información sobre cómo establecer la afinidad entre los adaptadores de red
virtual (vNIC) y los adaptadores de red físicos (pNIC). La afinidad entre pNIC y vNIC aporta flexibilidad para
enrutar el tráfico de red entre pNIC agrupados. Con esta característica, puede aumentar el rendimiento
asignando el adaptador físico compatible con RDMA con un vNIC habilitado para configuración de RDMA.
Además, puede enrutar un tipo específico de tráfico (por ejemplo, una migración dinámica) a un adaptador
físico con un ancho de banda mayor. En escenarios de implementación de HCI, al especificar la afinidad, puede
aprovechar el multicanal de SMB para conseguir un alto rendimiento para tráfico SMB.
Antes de empezar
Asegúrese de lo siguiente:
1. El conmutador lógico está implementado en un host.
2. La propiedad de agrupación SET está habilitada en el conmutador lógico.
Siga estos pasos:
Para un host, la afinidad entre vNIC y pNIC se puede establecer en el nivel de conmutador virtual. Puede definir
la afinidad al agregar un nuevo adaptador de red virtual al conmutador virtual o al modificar las propiedades de
un adaptador de red virtual existente.
1. Abra Tejido > Ser vidores > Todos los hosts > grupo host > Hosts > host . Haga clic con el botón
derecho en Host , seleccione Propiedades y vaya a la pestaña Conmutadores vir tuales .
2. Compruebe que los adaptadores físicos que se van a agrupar están aquí. La afinidad solo se puede
asignar a los adaptadores físicos que estén aquí.
3. Haga clic en Nuevo adaptador de red vir tual para agregar un nuevo vNIC al conmutador virtual.
4. De forma predeterminada, el valor de afinidad se establece en Ninguno . Este valor corresponde al
comportamiento existente, por el cual el sistema operativo distribuye el tráfico de vNIC a cualquiera de
los NIC físicos agrupados.
5. Seleccione un adaptador físico en el menú desplegable para establecer la afinidad entre un vNIC y un NIC
físico.
6. Una vez definida la afinidad, el tráfico de vNIC se enruta al adaptador físico asignado.
NOTE
Se recomienda no quitar ninguno de los adaptadores físicos después de la agrupación, ya que se podrían
interrumpir las asignaciones de afinidad asignadas.
Si la opción This vir tual adapter inherits the proper ties from the physical management adapter
(Este adaptador virtual hereda las propiedades del adaptador de administración físico) está marcada, no se
puede definir la afinidad para las vNIC que controlan el tráfico de administración.
NOTE
Los detalles que se muestran incluyen una marca de tiempo (actualizada). Para obtener los detalles actuales, actualice la
página.
Se muestra esta información del protocolo LLDP:
IN F O RM A C IÓ N M O ST RA DA DESC RIP C IÓ N
PowerShell
Use el comando de PowerShell siguiente para ver o actualizar los detalles de LLDDP:
Set-SCVMHostNetworkAdapter -RefreshLLDP
NOTE
De manera predeterminada, el tiempo de espera del paquete LLDP está establecido en 30 segundos. Para modificar este
valor, modifique la clave del Registro en Software\Microsoft\Microsoft System Center Vir tual Machine Manager
Ser ver\Settings\LLdpPacketWaitInter valSeconds . El valor mínimo se puede establecer en 5 segundos y el máximo,
en 300 segundos.
Pasos siguientes
Configurar el almacenamiento para hosts de Hyper-V.
Agregar almacenamiento a los hosts y clústeres de
Hyper-V
21/08/2021 • 9 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para asignar almacenamiento aprovisionado a hosts y clústeres de Hyper-V en el tejido de
System Center - Virtual Machine Manager (VMM).
Antes de empezar
Para poder asignar el almacenamiento aprovisionado en hosts y clústeres, es necesario que se detecte y se
clasifique en el tejido de VMM:
1. Detectar y clasificar el almacenamiento:
Agregar y clasificar dispositivos de almacenamiento en bloque. Obtenga información sobre la
clasificación.
Agregar almacenamiento de archivos
2. Asignar almacenamiento en bloque a grupos host. Puede asignar un grupo de almacenamiento completo o
una unidad lógica (LUN) específica.
3. Asegúrese de que ha completado estos pasos antes de asignar almacenamiento a hosts:
MPIO : si usa almacenamiento iSCSI o canal de fibra, la característica de E/S de múltiples rutas (MPIO)
debe estar habilitada en todos los hosts.
Si MPIO ya está habilitado antes de que agregue el host, VMM lo habilitará automáticamente
para las matrices de almacenamiento compatibles mediante Microsoft DSM. Si tiene DSM
específicos del proveedor, se usarán.
Si agrega un host a VMM y habilita MPIO más adelante, debe configurarlo manualmente para
agregar los identificadores de hardware de dispositivos detectados.
HBA y división en zonas : si usa una red de matrices de almacenamiento (SAN) de Canal de fibra,
cada host debe tener instalado un adaptador de bus host (HBA) y la división en zonas debe estar
correctamente configurada.
iSCSI : si usa una red SAN iSCSI, asegúrese de que se han agregado portales de iSCSI y que el
iniciador iSCSI está registrado en la matriz.
Asegúrese de que el Servicio del iniciador iSCSI de Microsoft de cada host esté iniciado y configurado
en Automático .
Grupo de almacenamiento : explíquele al administrador de almacenamiento cómo administra VMM
el almacenamiento.
En VMM, un grupo de almacenamiento enlaza los iniciadores del host, los puertos de destino y
las unidades lógicas.
Un grupo de almacenamiento contiene uno o más identificadores de iniciadores de host (IQN o
WWN) (WWN).
Un grupo de almacenamiento también contiene uno o varios puertos de destino y una o varias
unidades lógicas. Las unidades lógicas se exponen a los iniciadores de host a través de los
puertos de destino.
De manera predeterminada, cuando VMM administra la asignación de unidades lógicas, VMM
crea un grupo de almacenamiento por host, ya sea un host independiente o un nodo de clúster
de hosts.
En el caso de algunas matrices de almacenamiento, es preferible utilizar un solo grupo de
almacenamiento para todo el clúster, donde los iniciadores de host de todos los nodos del
clúster se encuentran en un único grupo de almacenamiento. Para ello, debe establecer la
propiedad CreateStorageGroupsPerCluster en $true mediante el cmdlet Set-SCStorageArray.
Asignación de almacenamiento
Puede asignar almacenamiento de archivos directamente a hosts y clústeres.
Puede agregar LUN a hosts y clústeres:
Si ya ha aprovisionado LUN en un grupo host, puede asignar los LUN a hosts y clústeres.
Si ha aprovisionado un bloque de almacenamiento en un grupo host, puede crear LUN durante el
procedimiento para agregar almacenamiento a un clúster.
Si quiere usar almacenamiento compartido que no está administrado por VMM, los discos de
almacenamiento deben estar disponibles para todos los hosts o nodos antes de agregarlos. Debe
aprovisionar uno o más LUN a todos los hosts que quiera incluir en el clúster y, después, montar y dar
formato a los discos de almacenamiento de uno de los nodos. Tenga en cuenta que VMM no admite ni
bloquea el uso de almacenamiento asimétrico, donde una carga de trabajo puede usar discos que se
comparten entre un subconjunto de los nodos del clúster. Cada nodo del clúster debe ser un posible
propietario del disco de clúster.
Después de agregar el almacenamiento iSCSI a un host, debe crear una sesión para el almacenamiento.
Convierta volúmenes de uno en uno. Después de la conversión, confirme que la unidad lógica
aparezca en la pestaña Volúmenes compar tidos .
Pasos siguientes
Configurar redes para hosts y clústeres de Hyper-V.
Administrar MPIO para hosts de Hyper-V en el
tejido de VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre la manera en que System Center Virtual Machine Manager
(VMM) administra la E/S de múltiples rutas (MPIO) en hosts de Hyper-V.
Cuando se agrega almacenamiento iSCSI o canal de fibra en un host de Hyper-V administrado en el tejido de
VMM, la característica de E/S de múltiples rutas (MPIO) debe estar habilitada en todos los hosts.
Si la característica MPIO está habilitada en el host, VMM la agrega a las matrices de almacenamiento
admitidas mediante el DSM de Microsoft. Si ha instalado DSM específicos del proveedor, se usará la
configuración de MPIO específica del proveedor para conectarse a la matriz de almacenamiento.
Si agrega un host y la característica MPIO no está habilitada, VMM mostrará un mensaje de advertencia en la
ventana Trabajos .
Si agrega un host a VMM y habilita la característica MPIO más adelante, debe agregar la característica MPIO
y, después, configurarla manualmente para agregar los identificadores de hardware de los dispositivos
detectados. También puede instalar DSM específicos del proveedor.
Pasos siguientes
Aprovisionar una máquina virtual
Administración de ACL de puertos en VMM
19/08/2021 • 9 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En System Center - Virtual Machine Manager (VMM), puede configurar y administrar de manera centralizada las
listas de control de acceso (ACL) a puertos de Hyper-V. Las ACL de puerto se pueden configurar tanto para un
tejido administrado por controladora de red como para redes que no estén administradas por controladora de
red.
Una ACL de puerto es un conjunto de reglas que filtran el tráfico en el nivel de puerto de capa 2. Una ACL de
puerto en VMM filtra el acceso a un determinado objeto VMM. Un objeto de red no puede tener más de una
ACL de puerto conectada.
Una ACL contiene reglas y se puede adjuntar a cualquier número de objetos de red. Puede crear una ACL sin
reglas y luego agregarlas posteriormente. Cada regla de ACL corresponde solo a una ACL de puerto.
Si una ACL tiene varias reglas, estas se aplican en función de la prioridad. Después de que una regla coincida
con los criterios y se aplique, no se procesa ninguna otra.
Se aplica una ACL de puerto de configuración global a todos los adaptadores de red virtual de máquinas
virtuales en una infraestructura. No hay ningún tipo de objeto independiente para la configuración global. En
su lugar, la ACL de puerto de configuración global se adjunta al servidor de administración de VMM.
La configuración de ACL de puerto solo se expone a través de los cmdlets de PowerShell en VMM y no se
puede configurar en la consola VMM.
Las ACL de puerto se pueden aplicar a:
Los adaptadores y subredes virtuales en una implementación de controladora de red.
Las subredes virtuales, adaptadores de red, redes de máquinas virtuales y el servidor de
administración de VMM en redes que no estén administradas por controladora de red.
Antes de empezar
Para aplicar una ACL a objetos administrados por controladora de red, use la marca ManagedByNC y
establézcala en True . Si no se establece en True , la ACL solo se aplica a los objetos de red que no estén
administrados por controladora de red.
Los tipos de ACL no son intercambiables. No se puede aplicar una ACL con ManagedByNC establecido
como false a objetos administrados por controladora de red y viceversa.
La principal diferencia entre estos dos tipos de ACL es que debe corregir cada adaptador de red después de
aplicar las ACL en los objetos que no estén administrados por controladora de red.
También hay una diferencia en los intervalos de prioridad:
ACL de puer to de Hyper-V (no administradas por controladora de red) : 1-65535
ACL de puer to de SDN (administradas por controladora de red) : 1-64500
Necesita permisos de administrador de VMM completos para adjuntar una ACL de puerto a la configuración
global. Para adjuntar la ACL a objetos VMM (redes de máquinas virtuales, subredes, adaptadores de red
virtual), debe ser un administrador de VMM, un administrador de inquilinos o un usuario de autoservicio.
Escenarios no admitidos
Esta es una lista de los escenarios no admitidos:
Administrar reglas individuales para una sola instancia cuando la ACL se comparte con varias instancias.
Todas las reglas se administran de manera centralizada dentro de sus ACL principales y se aplican
dondequiera que se adjunte la ACL.
Adjuntar más de una ACL a una entidad.
Aplicar las ACL de puerto a adaptadores de red virtual en la partición principal de Hyper-V (sistema
operativo de administración).
Crear reglas de ACL de puerto en VMM que incluyan protocolos a nivel de dirección IP (distintos de TCP o
UDP). Hyper-V sigue admitiendo otros protocolos de manera nativa.
Aplicar ACL de puerto a redes lógicas, sitios de red (definiciones de red lógica), VLAN de subred y otros
objetos de redes de VMM que no se han indicado como admitidos de forma específica.
Pasos de implementación
Use la interfaz de PowerShell para VMM para hacer lo siguiente:
1. Definir las reglas y las ACL de puerto.
Las reglas se aplican a puertos de conmutador virtual en servidores de Hyper-V como "ACL
extendidas de puerto" (VMNetworkAdapterExtendedAcl). Esto significa que pueden aplicarse
únicamente a los hosts que ejecutan Windows Server 2012 R2 o posterior, ya que VMM no crea ACL
de puerto de Hyper-V heredadas (VMNetworkAdapterAcl) para las versiones anteriores.
Todas las reglas de ACL de puerto definidas en VMM están con estado para TCP. No puede crear reglas
de ACL de TCP sin estado.
2. Adjunte una ACL de puerto a la configuración global. Esto aplica la ACL a todos los adaptadores de red
virtual de máquina virtual.
3. Adjunte las ACL de puerto a las redes de máquina virtual, subredes de máquina virtual o adaptadores de red
virtual de máquina virtual.
4. Administre las reglas de ACL de puerto.
Parámetros
PA RÁ M ET RO DETA L L ES
Ejemplos
Cree una ACL de puerto para los objetos administrados por controladora de red "DemoACLManagedByNC":
PS: C:\> New-SCPortACL -Name "DemoACLManagedByNC" -Description "PortACL Example Managed by NC" -ManagedByN
Cree una ACL de puerto para los objetos que no están administrados por controladora de red "DemPortACL":
PS: C:\> New-SCPortACL -Name "DemoPortACL" -Description "Port ACL Example Non Managed by NC"
Parámetros
PA RÁ M ET RO DETA L L ES
Ejemplos
Cree una ACL de puerto y almacene el objeto en $portACL:
PS: C:\> $portACL = New-SCPortACL -Name "RDP ACL" -Description "Acl on RDP access"
Cree una regla de ACL de puerto para permitir el acceso RDP desde una subred remota:
PS: C:\> New-SCPortACLRule -Name "AllowRDPAccess" -PortACL $portACL -Description "Allow RDP Rule from a
subnet" -Action Allow -Type Inbound -Priority 110 -Protocol Tcp -LocalPortRange 3389 -RemoteAddressPrefix
10.184.20.0/24
PS: C:\> $portACLRule = Get-SCPortACLRule -Name "AllowRDPAccess" `` <br/><br/> `` PS: C:\> Set-SCPortACLRule
-PortACLRule $portACLRule -Priority 220
El primer comando obtiene la regla de ACL de puerto "AllowRDPAccess". El segundo comando cambia la
prioridad de la regla a 220.
Modifique la regla de ACL de puerto para el intervalo de direcciones de destino y el protocolo de una regla:
PS: C:\> $portACLRule = Get-SCPortACLRule -Name "AllowRDPAccess" `` <br/><br/> `` PS: C:\> Set-SCPortACLRule
-PortACLRule $portACLRule -RemoteAddressPrefix 172.185.21.0/24 -Protocol Udp
El primer comando recupera la regla "AllowRDPAccess". El segundo cambia el protocolo a UDP y establece el
destino en la subred 172.185.21.0/24.
Parámetros
PA RÁ M ET RO DETA L L ES
Ejemplos
Adjunte una ACL a la configuración global:
Parámetros
PA RÁ M ET RO DETA L L ES
Ejemplos
Recupere una ACL específica:
Parámetros
PA RÁ M ET RO DETA L L ES
Ejemplos
Establezca una descripción de ACL:
PS: C:> Set-SCPortACL -PortACL $portACL -Description "Port ACL Example Non Managed by Network Controller"
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para administrar los clústeres de host de Hyper-V en el tejido de System Center - Virtual
Machine Manager (VMM). Puede configurar las propiedades de clúster y administrar nodos de clúster.
P ESTA Ñ A C O N F IGURA C IÓ N
Volúmenes compar tidos Muestra los volúmenes compartidos (CSV) que se asignan al
clúster de hosts. También puede hacer lo siguiente:
Eliminación de un clúster
Quite un clúster de hosts de la manera siguiente:
1. Haga clic en Tejido > Ser vidores > Todos los hosts .
2. Asegúrese de que el clúster no admite ninguna máquina virtual de alta disponibilidad o servicio o aplicación
en clúster.
3. Haga clic con el botón derecho en el clúster de hosts > Quitar del clúster . Haga clic en Sí para continuar.
4. Durante el trabajo para quitar el clúster, se anula el registro de cualquier almacenamiento compartido desde
los nodos de clúster. Si administra almacenamiento fuera de VMM, debe anular el registro del
almacenamiento.
Actualizar hosts y clústeres de Hyper-V
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo mantener los hosts y clústeres de Hyper-V actualizados
en el tejido de System Center Virtual Machine Manager (VMM).
Antes de empezar
Necesitará configurar una actualización (servidor WSUS) en el tejido VMM y configurar las líneas base de
actualización.
En el clúster S2D, una vez que la actualización se instaló en el nodo, este se reiniciará y se iniciará la operación
de reparación (resincronización). Si la resincronización no se completa en 600 minutos (valor predeterminado),
el trabajo de actualización genera un error. Para evitar el error en el trabajo, puede cambiar el tiempo de espera
en la clave del Registro.
El valor mínimo para el tiempo de espera de resincronización es de 600 minutos, mientras que el valor
máximo puede ser de 2880 minutos.
S2DResyncWaitTimeInMins es la configuración de la clave del Registro que puede usar para cambiar
el tiempo de espera de resincronización predeterminado.
Esta es la ruta de acceso de la clave del Registro:
\HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Microsoft System Center Virtual Machine Manager
Server\Settings > RegistryKey
Pasos siguientes
Obtenga información sobre las actualizaciones de VMM
Realización de una actualización gradual de un
clúster de hosts de Hyper-V a Windows Server en
VMM
21/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
La actualización gradual de clúster se introdujo en Windows Server 2016. Esta característica permite actualizar
el sistema operativo de los nodos de clúster sin detener las cargas de trabajo de Hyper-V que se ejecutan en los
nodos. Obtenga más información sobre los requisitos y la arquitectura de la actualización gradual.
NOTE
System Center 2019 - Virtual Machine Manager (VMM) admite la actualización gradual de un clúster de hosts de Hyper-
V de Windows Server 2016 a Windows Server 2019. Las versiones anteriores a VMM 2019 admiten la actualización
gradual a 2016 desde 2012 R2. Use los siguientes procedimientos según corresponda para la versión de VMM que está
utilizando y la versión de actualización que admita.
NOTE
Asegúrese de instalar las actualizaciones más recientes en el disco duro virtual que desea usar como perfil de equipo físico.
Antes de empezar
Revise las restricciones y limitaciones de la plataforma antes de iniciar una actualización gradual del clúster.
El clúster debe estar administrado por VMM.
El clúster debe ejecutar Windows Server 2012 R2 (en el caso de versiones anteriores a 2019) o Windows
Server 2016 (en caso de VMM 2019).
El clúster debe cumplir los requisitos para la implementación sin sistema operativo. La única excepción es
que el perfil de equipo físico no necesita incluir detalles de configuración de red o disco. Durante la
actualización, VMM registra la configuración de red y de disco del nodo y usa esa información en lugar del
perfil de equipo.
Puede actualizar los nodos que no se aprovisionaron originalmente mediante la implementación sin sistema
operativo, siempre y cuando dichos nodos cumplan los requisitos de la implementación sin sistema
operativo, como BMC. Debe proporcionar esta información en el asistente para actualización.
La biblioteca VMM necesita un disco duro virtual configurado con Windows Server 2016.
Ejecutar la actualización
1. Haga clic en Tejido > Ser vidores > Todos los hosts . Haga clic con el botón derecho en el clúster de hosts
> Actualizar clúster .
2. En el Asistente para actualización > Nodos , haga clic en los nodos que quiere actualizar o en Seleccionar
todo . Después, haga clic en Perfil de equipo físico y seleccione el perfil de los nodos.
3. En Configuración de BMC , seleccione la cuenta de ejecución con permisos para acceder al BMC o cree una
nueva. En Protocolo de administración fuera de banda , haga clic en el protocolo que usan los BMC.
Para usar DCMI, haga clic en IPMI. DCMI es compatible, aunque no aparezca. Asegúrese de que aparece el
puerto correcto.
4. En Personalización de implementación , revise los nodos que se van a actualizar. Si el asistente no pudo
descubrir todos los valores de configuración, se muestra la alerta Faltan valores de configuración para el
nodo. Por ejemplo, si el nodo no se aprovisionó mediante una implementación sin sistema operativo, la
configuración de BMC podría no estar completa. Rellene la información que falta.
Si es necesario, escriba la dirección IP de BMC. También puede cambiar el nombre del nodo. No
desactive Omitir comprobación de Active Director y para este nombre de equipo , a menos
que vaya a cambiar el nombre del nodo y quiera asegurarse de que el nombre nuevo no está en uso.
En la configuración del adaptador de red puede especificar la dirección MAC. Hágalo si va a configurar
el adaptador de administración para el clúster y quiere configurarlo como un adaptador de red virtual.
No es la dirección MAC del BMC. Si decide especificar una configuración de IP estática para el
adaptador, seleccione una red lógica y una subred IP, si procede. Si la subred contiene un grupo de
direcciones, puede seleccionar Obtener una dirección IP correspondiente a la subred
seleccionada . De lo contrario, escriba una dirección IP que se encuentre dentro de la red lógica.
5. En Resumen , haga clic en Finalizar para empezar la actualización. Si el asistente finaliza las actualizaciones
de nodos correctamente, el asistente actualiza el nivel funcional del clúster a Windows Server 2016/2019.
Si, por alguna razón, debe actualizar el nivel funcional de un clúster que se ha actualizado fuera de VMM, haga
clic con el botón derecho en Clúster > Actualizar versión . Esto puede pasar si actualiza los nodos del clúster
antes de agregar el clúster al tejido VMM, pero el clúster todavía sigue funcionando como un clúster de
Windows Server 2012 R2/2016.
Hosts de servicio y máquinas virtuales en el tejido
de proceso de VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre los hosts y las máquinas virtuales de Hyper-V en el tejido de
System Center Virtual Machine Manager (VMM).
Antes de empezar
Le recomendamos que mantenga los hosts de clúster de hosts de Hyper-V actualizados con las mismas
actualizaciones para evitar posibles problemas de operaciones de VMM.
Puede proporcionar servicio a hosts y máquinas virtuales mediante:
Configurar períodos de ser vicio : los períodos de servicio proporcionan un método para programar el
servicio fuera de VMM. Puede asociar un período de servicio con hosts individuales, máquinas virtuales o
servicios. Antes de usar otras aplicaciones para programar las tareas de mantenimiento, puede usar scripts
de Windows PowerShell o aplicaciones personalizadas para consultar el objeto y determina si se encuentra
actualmente en un período de servicio. Los períodos de servicio no interfieren con la funcionalidad y el uso
regular de VMM.
Colocar hosts en el modo de mantenimiento : puede iniciar el modo de mantenimiento en un host de
máquina virtual siempre que necesite realizar tareas de mantenimiento en el host físico, como aplicar
actualizaciones de seguridad o sustituir hardware en el equipo host físico. Puede poner en modo de
mantenimiento los hosts de Hyper-V y los hosts de VMware ESX del tejido VMM. Observe lo siguiente:
Cuando un host está en modo de mantenimiento, se aplican las restricciones siguientes:
Las máquinas virtuales no pueden crearse en el host.
Las máquinas virtuales no pueden moverse al host.
El host tiene una clasificación de cero y no se puede elegir para selección de ubicación.
El host se excluye de la optimización dinámica.
Para los hosts de ESX, si el programador de recursos distribuidos de VMware no está configurado,
todas las máquinas virtuales del host deben manualmente apagarse o moverse a otro host para
iniciar correctamente el modo de mantenimiento en un host de ESX.
Si está supervisando con Operations Manager y tiene el modo de mantenimiento habilitado para la
supervisión, el agente Operations Manager suprime las alertas, las notificaciones, las reglas, los
monitores, las respuestas automáticas, los cambios de estado y las alertas nuevas para los hosts que
se colocan en modo de mantenimiento.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre la administración de servidores y máquinas virtuales VMware
en el tejido de System Center - Virtual Machine Manager (VMM).
VMM permite implementar y administrar máquinas virtuales y servicios a través de varias plataformas de
hipervisor, incluidos los hosts de VMware vSphere y los servidores vCenter.
Puede agregar hosts de vCenter y vSphere al tejido de VMM.
VMM se integra directamente con VMware vCenter Server. Mediante la consola VMM, puede administrar las
operaciones diarias de los hosts y clústeres de VMware vSphere, como la detección y administración de
hosts.
VMM proporciona la capacidad de crear, administrar, almacenar, colocar e implementar máquinas virtuales
en hosts de vSphere. Puede importar plantillas de VMware.
Puede asociar adaptadores de host a redes lógicas de VMM. En vCenter Server tiene lugar una
administración más avanzada, como la configuración de grupos de puertos, conmutadores virtuales (o
"vSwitches") estándar y distribuidos, vMotion y Storage vMotion.
Puede convertir máquinas virtuales de VMware en Hyper-V.
Antes de empezar
VMM es compatible con la administración de hosts y clústeres que ejecutan VMware. Puede obtener más
información sobre las versiones compatibles de VMware.
Necesita un servidor vCenter en su implementación. Los hosts de vSphere y los clústeres de hosts deberían
administrarse mediante un servidor vCenter, que a su vez se administra mediante VMM.
Las siguientes características se admiten mediante VMM cuando los hosts y clústeres se administran con un
servidor vCenter:
El shell de comandos VMM (común a todos los hipervisores)
La selección de ubicación de máquina virtual basada en clasificaciones de host cuando crea,
implementa o migra máquinas virtuales de VMware. Incluye la implementación simultánea de
máquinas virtuales durante la implementación del servicio.
Puede implementar servicios de VMM en hosts de vSphere. No puede implementar vApps.
Puede hacer que los recursos de los hosts de vSphere estén disponibles en una nube VMM mediante
la creación de nubes desde los grupos host en que residen los hosts de vSphere, o bien al crear una
nube desde un grupo de recursos de VMware. Tenga en cuenta que VMM no se integra con VMware
vCloud.
Puede usar la optimización dinámica y la optimización de energía para hosts de vSphere. VMM puede
equilibrar la carga de máquinas virtuales en clústeres de vSphere mediante migración en vivo. A
través de la optimización de energía, puede configurar VMM para activar y desactivar hosts de
vSphere para la administración de energía.
Puede transferir recursos de VMware mediante la migración en vivo entre hosts de un clúster (usa
vMotion) y la migración de almacenamiento en vivo (usa Storage vMotion). Los recursos que se
admiten para la transferencia incluyen la migración de red a y desde la biblioteca y entre hosts. Tenga
en cuenta que los discos de aprovisionamiento fino de VMware pasan a ser gruesos cuando migra un
disco a la biblioteca de VMM.
Puede colocar hosts de vSphere administrados mediante VMM dentro y fuera del modo de
mantenimiento.
Organice y almacene máquinas virtuales de VMware, archivos VMDK y plantillas de VMware en la
biblioteca de VMM. Puede crear máquinas virtuales nuevas de plantillas. Tenga en cuenta que VMM
no admite tipos de disco VMDK anteriores. Se admiten estos tipos de disco: archivos VMDK regulares
(VMFS y monolítico plano), archivos VMDK que se usan para tener acceso a discos físicos
(vmfsPassthroughRawDeviceMap) e instantáneas (vmfssparse).
Puede crear plantillas mediante archivos .vmdk almacenados en la biblioteca. También puede importar
plantillas almacenadas en hosts de vSphere (solo los metadatos de plantilla se importan a VMM).
VMM admite vSwitches y grupos de puertos estándar y distribuidos existentes. vSwitches y los grupos
de puerto deben configurarse con el servidor vCenter.
Puede realizar tareas de redes de VMM habituales, incluida la asignación de redes lógicas, dirección IP
estática y dirección MAC a máquinas virtuales basadas en Windows que se ejecutan en VMware.
VMM admite y reconoce los adaptadores de almacenamiento VMware Paravirtual SCSI (PVSCSI).
VMM no admite máquinas virtuales de VMware con discos duros virtuales conectados a un bus IDE.
VMM admite discos duros de aprovisionamiento fino de VMware a través del tipo de disco dinámico.
Tenga en cuenta que si crea e implementa una máquina virtual a un host de vSphere configurado para
usar un disco dinámico, el disco tendrá un aprovisionamiento fino. Si se ha creado una máquina
virtual como un disco de aprovisionamiento fino fuera de banda, la máquina virtual lo mostrará como
dinámico. Si guarda un disco de aprovisionamiento fino en la biblioteca, VMM lo guardará como
grueso. Sigue siendo grueso si crea una máquina virtual a partir de él.
Todo el almacenamiento se debe agregar a los hosts de vSphere fuera de VMM.
La comunicación entre VMM y el servidor vCenter está cifrado con SSL. Necesitará un certificado para
identificar el servidor de vCenter. Puede usar un certificado autofirmado para un servidor vCenter en
un certificado de terceros comprobado.
Si está usando un certificado autofirmado para autenticar el servidor de vCenter a VMM, puede
importar manualmente el certificado en el almacén de certificados de personas de confianza en el
servidor de administración de VMM antes de agregar el servidor vCenter. Si no lo hace, se le solicitará
que lo haga durante la implementación.
Necesitará una cuenta con permisos de administrador para el servidor vCenter (cuenta local o de
Active Directory) y una cuenta con permisos de administrador para los hosts de vSphere. Antes de
comenzar, puede crear cuentas de ejecución. Si no lo hace, necesitará crear cuentas durante el
procedimiento de implementación.
Puede decidir si quiere que VMM se comunique con los hosts de vSphere administrados mediante el
servidor vCenter por una conexión segura. En este caso, necesitará un certificado para las
comunicaciones de autenticación en cada host o clúster de vSphere. Puede usar el certificado
autofirmado que VMware ha creado al instalar vSphere en el host o un certificado de una CA de
confianza. Si está usando un certificado autofirmado, puede importarlo de cada host de vSphere al
servidor de administración de VMM antes de comenzar la implementación.
Antes de que configure la configuración de red para los hosts de vSphere, asegúrese de que ha creado
redes lógicas que quiere asociar a los adaptadores de red físicos de los hosts.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre la adición y administración de servidores de infraestructura en
el tejido de System Center - Virtual Machine Manager (VMM).
Además de los servidores de infraestructura que se han usado por el tejido VMM (servidor de biblioteca,
servidores PXE, servidores IPAM), puede agregar otros servidores de infraestructura, como Active Directory,
DNS, DHCP, System Center, al tejido VMM. Esto le permite administrar y actualizar todos estos servidores en la
misma ubicación.
El nodo Infraestructura de la consola VMM muestra los servidores de infraestructura que agrega, así como el
servidor de administración de VMM, servidores vCenter, servidores de biblioteca VMM, servidores IPAM y PXE,
si los agrega.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Obtenga información sobre cómo implementar los servidores de actualización en el tejido de almacenamiento
de System Center - Virtual Machine Manager (VMM).
Los servidores de actualización se implementan en el tejido de VMM para administrar el cumplimiento y la
corrección en hosts de virtualización, servidores de biblioteca, el servidor de administración de VMM,
servidores PXE, el propio servidor WSUS y cualquier servidor de infraestructura. Más información.
En este artículo se explican los requisitos previos, cómo agregar un servidor WSUS al tejido, configurar líneas
base de actualización, ejecutar un examen y crear exenciones de actualización.
Antes de empezar
El servidor WSUS debe ejecutar Windows Server Update Service (WSUS) 4.0 o una versión posterior y una
de las versiones compatibles de Windows Server, como se detalla en los requisitos del sistema.
El servidor WSUS debe estar en el mismo dominio que el servidor de VMM, o en un dominio con plena
confianza.
VMM puede usar un servidor WSUS raíz o un servidor WSUS que sigue en la cadena. No puede usar un
servidor WSUS de réplica.
El servidor WSUS puede dedicarse a VMM a un servidor existente.
El servidor WSUS puede instalarse en el servidor de administración de VMM pero si va a procesar un gran
número de actualizaciones, recomendamos que use un servidor independiente.
VMM también puede funcionar con System Center Updates Publisher, pero solo se admiten las
actualizaciones completas de contenido. Solo las actualizaciones de metadatos no se pueden agregar a una
línea base.
Después de agregar un servidor WSUS para VMM, debe administrarlo en la consola VMM y no en la consola
WSUS. En VMM, actualiza las propiedades del servidor de actualización con el fin de configurar un servidor
proxy para sincronizaciones y cambiar las categorías de actualización, los productos y los idiomas admitidos
que el servidor WSUS sincroniza.
En VMM, los administradores y los administradores delegados administran las actualizaciones del tejido.
Solo los administradores pueden administrar el servidor de actualización y sincronizar las actualizaciones.
Los administradores delegados pueden examinar y corregir actualizaciones en equipos que están dentro del
ámbito de sus roles de usuario. Los administradores delegados pueden usar las líneas base creadas por los
administradores y otros administradores delegados. En cambio, los administradores delegados no pueden
modificar ni eliminar líneas base creadas por otros usuarios.
NOTE
Recomendamos que no actualice los servidores de un clúster de Espacios de almacenamiento directo (ya sea
hiperconvergido o desagregado) mediante VMM, ya que podría causar pérdida de datos.
NOTE
Recomendamos que no actualice los servidores de un clúster de Espacios de almacenamiento directo (ya sea
hiperconvergido o desagregado) mediante VMM, ya que podría causar pérdida de datos.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información general sobre la configuración del tejido de red de System Center -
Virtual Machine Manager (VMM).
Esto es lo que normalmente hará para configurar la red en el tejido de VMM:
1. Configurar redes lógicas: crear redes lógicas que se asignan a sus redes físicas. Puede crear sitios de red que
se asignan a sitios de red de la red física. Por ejemplo, subredes de IP, VLNS o pares de subred/VLAN. Si no
usa DHCP, cree grupos de direcciones IP para los sitios de red que existen dentro de sus redes físicas.
2. Crear redes de VM: cree redes de VM que se asignan a sitios de red que existen dentro de sus redes físicas.
3. Configurar grupos de direcciones IP: cree grupos de direcciones para asignar direcciones IP estáticas. Debe
configurar grupos para las redes lógicas y, en algunos casos, también para las redes de VM.
4. Agregar una puerta de enlace: podría tener que configurar puertas de enlace de virtualización de red en el
tejido de red de VMM. De manera predeterminada, si usa redes de máquina virtual aisladas en el tejido de
VMM, las máquinas virtuales asociadas a una red solo pueden conectarse a equipos de la misma subred. Si
quiere conectar máquinas virtuales más allá de la subred, necesitará una puerta de enlace.
5. Crear perfiles de puerto: cree perfiles de puerto de vínculo superior que indiquen a VMM a qué redes se
puede conectar un host en un adaptador de red específico. Si es necesario, cree perfiles de puerto virtual
para especificar la configuración que se debe aplicar a los adaptadores de red virtual. Puede crear
clasificaciones de puerto personalizadas para resumir los perfiles de puerto virtual.
6. Configurar conmutadores lógicos: cree un conmutador lógico, aplíquelo a un host y seleccione los
adaptadores de red del host que quiere enlazar al conmutador. Cuando aplique la configuración de red del
conmutador, se aplicará al host.
Configurar redes lógicas en el tejido de VMM
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo crear redes lógicas en System Center: Virtual Machine
Manager (VMM).
NOTE
Para obtener información sobre las redes lógicas de VMM 2019 UR1, vea este artículo.
Tiene distintos tipos de redes en la organización, como redes corporativas, redes de administración y otras. En
VMM, cada una de estas redes se define como una red lógica. Las redes lógicas son objetos lógicos que reflejan
las redes físicas.
Cuando cree redes lógicas, debe asignarles propiedades que coincidan con su entorno físico. Debe especificar el
tipo de red, los sitios de red asociados y los grupos de direcciones estáticas si no usa DHCP para asignar
direcciones IP a las máquinas virtuales que cree en los sitios de red. También puede especificar si las redes se
aíslan de forma física o virtual mediante la virtualización de red y LAN virtuales (VLAN).
Las redes lógicas se usan al aprovisionar hosts de virtualización en el tejido de VMM. Los adaptadores físicos se
asocian en hosts con redes lógicas.
Las redes de máquinas virtuales (VM) de VMM se basan en redes lógicas. Las redes de máquinas virtuales
proporcionan una interfaz a través de la cual las máquinas virtuales se conectan a una red lógica. Una red lógica
puede tener una o varias redes de VM asignadas.
Antes de empezar
Antes de comenzar, es importante comprender cómo funcionan las redes lógicas en VMM.
Redes lógicas automáticas : de forma predeterminada, VMM crea redes lógicas automáticamente. Cuando
aprovisiona un host en el tejido de VMM y no hay ninguna red lógica de VMM asociada a un adaptador de
red físico en ese host, VMM crea automáticamente una red lógica y la asocia a un adaptador. De forma
predeterminada, para la red lógica, VMM primero crea la etiqueta de sufijo DNS del sufijo DNS específico de
la conexión. De forma predeterminada, VMM también crea una red de VM configurada con el valor Sin
aislamiento (No isolation) .
Redes lógicas manuales : al crear una red lógica de forma manual, debe especificar lo siguiente:
Tipo de red : debe especificar si se aísla o no la red y, en caso afirmativo, de qué modo se aísla. A
continuación, al crear redes de VM basadas en la red lógica, estas se crearan con el tipo de red que
haya especificado.
No isolation (Sin aislamiento) : este es el tipo más sencillo de modelo de red que especifica
que solo hay una red dentro de la cual las máquinas se pueden conectar unas a otras sin
necesidad de que estén aisladas entre sí. Las redes de VM de VMM proporcionan una interfaz a
través de la cual las VM se conectan a una red lógica y, en un modelo sin aislamiento, tendrá
una sola red de VM asignada a una red lógica.
Aislamiento : en la mayoría de los casos, deseará aislar las redes unas de otras. Por ejemplo,
puede que desee asilar redes que tienen distintos fines o puede que usted sea un proveedor
que desee hospedar cargas de trabajo para varios inquilinos en una sola red lógica y que cada
inquilino esté aislado. En ese caso, tendrá varias redes de VM asignadas a una red lógica. Las
redes de VM asignadas a una red lógica se pueden aislar mediante VLAN o VLAN privadas, o
bien mediante la virtualización de red. Tenga en cuenta que:
Una instalación típica podría ser una red de infraestructura sin aislamiento o con
aislamiento de VLAN, una red de Internet con PVLAN y de back-end de equilibradores
de carga, y redes de inquilinos con aislamiento mediante la virtualización de red.
En una única red lógica, solo se puede usar un tipo de aislamiento. Si necesita más,
deberá disponer de varias redes lógicas.
Hay un límite práctico de aproximadamente 2000 inquilinos y de unas 4000 redes de
VM para un solo servidor de VMM.
Sitios de red : si su organización tiene distintas ubicaciones y centros de datos, puede incluir
información sobre estos sitios en la configuración de la red lógica. Por ejemplo, puede especificar
un sitio de Nueva York con una configuración de subred de IP o VLAN y un sitio de Londres con
una configuración de IP o VLAN distinta. A continuación, puede asignar la dirección IP a VM
basadas en la configuración de red, ubicación y VLAN. Tenga en cuenta que:
Debe asignar una subred de IP a un sitio si VMM distribuirá direcciones IP estáticas a VM en el
sitio. Si usa DHCP, no es necesaria una subred.
Debe configurar una VLAN si se usa una en su sitio físico. Si no usa VLAN y usa DHCP, no es
necesario definir sitios de red en la red lógica.
Pasos siguientes
Si creó sitios de red y les asoció una o varias subredes de IP (no está usando DHCP), puede crear grupos de
direcciones IP estáticas a partir de esas subredes. A continuación, VMM puede asignar automáticamente
direcciones IP a las VM del sitio de red. Configure grupos de direcciones IP.
Configuración de redes lógicas en el tejido de VMM
2019 UR1
21/08/2021 • 8 minutes to read
En este artículo se describe cómo crear redes lógicas en System Center 2019 UR1 (paquete acumulativo de
actualizaciones 1) Virtual Machine Manager (VMM). VMM 2019 UR1 ofrece un flujo simplificado de creación de
redes lógicas que admite tipos de red e ilustraciones en el producto en función de los casos de uso.
NOTE
Para obtener información sobre cómo crear redes lógicas en VMM 2019, consulte las redes lógicas en VMM 2019.
En una organización, existen distintos tipos de redes, como redes corporativas y de administración. En VMM,
cada una de estas redes se define como una red lógica. Las redes lógicas son objetos lógicos que reflejan las
redes físicas.
Cuando cree redes lógicas, debe asignarles propiedades que coincidan con su entorno físico. Debe especificar el
tipo de red lógica y los sitios de red asociados, así como grupos de direcciones estáticas si no usa DCHP para
asignar direcciones IP a las máquinas virtuales que crea en el sitio de red. También puede especificar si las redes
se aíslan de forma física o virtual mediante la virtualización de red y LAN virtuales (VLAN).
Las redes lógicas se usan al aprovisionar hosts de virtualización en el tejido de VMM. Los adaptadores físicos se
asocian en hosts con redes lógicas.
Las redes de máquinas virtuales (VM) de VMM se basan en redes lógicas. Las redes de máquinas virtuales
proporcionan una interfaz a través de la cual las máquinas virtuales se conectan a una red lógica. Una red lógica
puede tener una o varias redes de VM asignadas.
Antes de empezar
Antes de comenzar, es importante comprender cómo funcionan las redes lógicas en VMM.
Redes lógicas automáticas : de forma predeterminada, VMM crea redes lógicas automáticamente.
Cuando aprovisiona un host en el tejido de VMM y no hay ninguna red lógica de VMM asociada a un
adaptador de red físico en ese host, VMM crea automáticamente una red lógica y la asocia a un
adaptador. De forma predeterminada, para la red lógica, VMM asigna la primera etiqueta del sufijo DNS
específico de la conexión. De forma predeterminada, VMM también crea una red de VM conectada.
Redes lógicas manuales : al crear una red lógica de forma manual, debe especificar lo siguiente:
Tipo de red : especifique si la red es una red conectada o independiente y el tipo de red
conectada. Después, al crear redes de VM basadas en la red lógica, estas se crearán con el tipo de
red que haya especificado.
Red conectada : los pares de VLAN y subred de las redes físicas subyacentes son
lógicamente equivalentes. Se creará una sola red de VM en la parte superior de esta red
lógica y esta red de VM proporcionará acceso a todos los pares VLAN-subred subyacentes.
Este tipo de red se conocía anteriormente como Una red conectada.
Escenario de ejemplo : Enterprise Contoso necesita una red para hospedar sus cargas de
trabajo de DevTest. Esta red puede tener varias VLAN o subredes. Contoso crea una red
lógica de tipo Red conectada. VMM es quien asume la responsabilidad de asignar la VLAN o
subred a las máquinas virtuales en función del grupo host en el que se encuentra la
máquina virtual.
Red independiente : se pueden crear varias redes de VM sobre esta red lógica. Cada red
de VM creada proporciona acceso a un par VLAN-subred específico. Las redes de VM son
independientes entre sí.
Sitios de red : si su organización tiene distintas ubicaciones y centros de datos, puede incluir
información sobre estos sitios en la configuración de la red lógica. Por ejemplo, puede especificar un sitio
de Nueva York con una configuración de subred IP y VLAN y un sitio de Londres con una configuración
de IP o VLAN diferente. Después, puede asignar una dirección IP a las VM en función de la configuración
de red, ubicación y VLAN.
NOTE
Asigne una subred de IP a un sitio si VMM distribuirá direcciones IP estáticas a VM en el sitio. Si usa DHCP, no
es necesaria una subred.
Configure una VLAN si se usa una en su sitio físico. Si no usa VLAN y usa DHCP, no es necesario definir sitios
de red en la red lógica.
NOTE
En el caso de los hosts de Hyper-V, puede usar la etiqueta de sufijo DNS completa o solo la primera parte. Por
ejemplo, si el sufijo DNS es corp.contoso.com, la red lógica será corp-contoso.com o solamente corp. Esta
funcionalidad no es compatible con hosts de VMware.
En el caso de los hosts de Hyper-V y VMware, puede seleccionar el nombre de la conexión de red o el nombre
del conmutador de red virtual. Este último es el nombre del conmutador de red virtual con el que está
enlazado el adaptador físico del host.
De manera predeterminada, los hosts de VMware usan la opción del conmutador de red virtual.
También puede especificar una opción de reserva si falla la primera coincidencia lógica.
Si no desea que VMM cree redes lógicas y de VM automáticamente, puede deshabilitar la configuración global.
1. Seleccione Configuración > General . Haga doble clic en Configuración de red .
2. Desactive la opción Crear redes lógicas automáticamente (Create logical networks automatically) .
Para simplificar la creación de redes lógicas, se agregan descripciones e ilustraciones de los tipos de red
lógica en VMM 2019 UR1. Cada tipo de red lógica tiene una descripción en el producto y una ilustración
que describe el caso de uso.
Si desea crear una sola red de VM que tenga acceso a todos los pares VLAN-subred subyacentes, elija
Red conectada . Aquí, los pares de VLAN y subred IP de la red física subyacente son lógicamente
equivalentes.
Para permitir que la controladora de red de Microsoft administre la red lógica, seleccione
Administradas con la controladora de red de Microsoft .
Si la red lógica proporciona direcciones IP públicas, elija Red de direcciones IP .
Para crear varias redes de VM independientes entre sí, seleccione Red independiente . Cada red de
VM tendrá acceso a un par VLAN-subred o a un par PVLAN-subred específico.
Para crear varias redes de VM virtualizadas que tengan su propio espacio de direcciones virtualizado,
seleccione Red vir tualizada .
4. En Sitio de red , agregue sitios de red a la red lógica. Si no necesita crear sitios de red, seleccione
Siguiente .
En VMM 2019 UR1, puede crear grupos de direcciones IP cuando agregue sitios de red en el Asistente
para crear redes lógicas .
DHCP sin VL AN (DHCP no VL AN) : si usa DHCP para asignar direcciones IP y no tiene ninguna
VLAN, no necesita un sitio de red. Tenga en cuenta que VMM sugiere automáticamente un nombre de
sitio. Un nombre de red tiene una longitud limitada de 64 caracteres.
IP estática : si usa direcciones IP estáticas, cree al menos un sitio de red y asóciele, como mínimo, una
subred de IP.
VL AN : si usa redes VLAN con direcciones IP estáticas, cree los sitios de red correspondientes para los
pares de VLAN y subred. Si usa DHCP, cree los sitios de red correspondientes solo para obtener
información de VLAN.
Vir tualización de red : si usa la virtualización de red, cree al menos un sitio de red con una subred
de IP asociada para que la red lógica tenga un grupo de direcciones IP.
Equilibrador de carga : si la red lógica contendrá un equilibrador de carga, cree al menos un sitio de
red con una subred de IP asociada.
5. Si usa una red externa administrada por una consola de administración de redes de proveedor o el
administrador de extensiones de conmutador virtual fuera de VMM, puede establecer la configuración de
la consola del proveedor e importarla en VMM.
6. En Grupos host que pueden usar este sitio de red: , seleccione los grupos host para los que desee
que esté disponible la red lógica.
7. En VL AN y subredes IP asociadas , seleccione Inser tar fila para especificar la configuración que
desee asignar al sitio de red. Si selecciona PVL AN , debe agregar una VL AN secundaria para cada
VLAN. Asegúrese de que las VLAN y las subredes estén disponibles en la red física. Si deja vacío el campo
VL AN , VMM asigna un valor de 0 para indicar que no se usan redes VLAN. En el modo de tronco, el 0
indica una VLAN nativa.
8. Si creó sitios de red y les asoció una o varias subredes de IP (cuando no está usando DHCP), puede crear
grupos de direcciones IP estáticas a partir de esas subredes. A continuación, VMM puede asignar
automáticamente direcciones IP a las VM del sitio de red. Los grupos de direcciones IP se pueden crear en
el Asistente para crear redes lógicas .
Siga estos pasos para configurar un grupo de direcciones IP en una red lógica.
Pasos siguientes
Crear una red de máquinas virtuales
Configurar redes de VM en el tejido de VMM
19/08/2021 • 5 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear redes de VM basadas en redes lógicas de System Center - Virtual
Machine Manager (VMM).
En un entorno de red virtualizado, queremos abstraer máquinas virtuales desde la red lógica subyacente. Las
redes de VM le ayudan a hacerlo. Las redes de VM son objetos abstractos que actúan como una interfaz para
redes lógicas.
Una red lógica puede tener una o más redes de VM asociadas.
Si una red lógica no está aislada, solo una red de VM se asociará a ella.
Si una red lógica está aislada, pueden asociarse a ella varias redes de VM. Estas distintas redes de VM nos
permiten usar redes para distintos propósitos. Por ejemplo, como proveedor es posible que quiera
hospedar cargas de trabajo para varios inquilinos en una sola red lógica con una red de VM
independiente para cada inquilino. El tipo de red de VM que se configura depende de la configuración de
aislamiento de la red lógica:
Vir tualización de red : si la red lógica está aislada con la virtualización de red, puede crear varias
redes de VM para una red lógica. En una VM, los inquilinos de red pueden utilizar todas las
direcciones IP que deseen para sus VM, independientemente de las direcciones IP que se usen en
otras redes de VM. Los inquilinos también pueden establecer algunas configuraciones de red.
VL AN : si se aísla la red lógica con VLAN o PVLAN, creará una red de VM para cada sitio de red y la
VLAN en la red lógica.
Sin aislamiento : si se configura la red lógica sin aislamiento, creará una sola red de VM vinculada a
una red lógica.
Antes de empezar
En algunas circunstancias necesitará crear un grupo de direcciones IP estáticas en la red de VM después de
haberla creado. Más información.
De forma predeterminada, las máquinas dentro de una red de VM específica pueden conectarse entre sí. Si la
red de VM se va a conectar a otras redes, puede configurarla con una puerta de enlace (servicio de red). Si
desea agregar una puerta de enlace a la red de VM, debe crearla. Más información.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar grupos de direcciones IP estáticas para redes lógicas y de VM en el
tejido de red de System Center - Virtual Machine Manager (VMM).
NOTE
Al crear un grupo de direcciones IP estáticas en VMM, no utilice el intervalo de direcciones IP (administrado por el grupo)
fuera de VMM en el mismo entorno.
Al configurar la red lógica, debe configurar un grupo de direcciones IP estáticas si no usa DHCP. En algunos
casos tendrá que crear grupos de direcciones IP solamente en la red lógica, mientras que en otros deberá crear
el grupo tanto en la red lógica como en la red de VM:
Grupo en la red lógica y de VM : si configura la red lógica para la virtualización de red, debe crear grupos
de direcciones IP en la red lógica y en la red de VM.
Grupo solamente en la red lógica : si usa VLAN o si no tiene aislamiento, puede usar DHCP o crear
grupos de direcciones IP solamente en la red lógica. Estarán disponibles automáticamente en la red de VM.
Grupos de direcciones impor tados : si usa redes externas a través de una consola de proveedor, los
grupos de direcciones IP se importarán del proveedor y no tendrá que crearlos en VMM.
Pasos siguientes
Crear una red de máquinas virtuales
Agregar una puerta de enlace de virtualización de
red en el tejido de VMM
21/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo configurar puertas de enlace de virtualización de red en
el tejido de redes de System Center - Virtual Machine Manager (VMM).
De manera predeterminada, si usa redes de máquina virtual aisladas en el tejido de VMM, las máquinas
virtuales asociadas a una red solo pueden conectarse a equipos de la misma subred. Si quiere conectar
máquinas virtuales más allá de la subred, necesitará una puerta de enlace.
Virtualización de redes
Configure la virtualización de red de forma que varias redes de máquina virtual se sobrecarguen en las redes
lógicas de VMM que modelan la topología de red física y, por tanto, desacoplan las redes de máquina virtual de
la infraestructura de red física. La virtualización de red usa NVGRE (Virtualización de red mediante
encapsulación de enrutamiento genérico) para virtualizar las direcciones IP. Revise lo siguiente para obtener más
información sobre NVGRE.
Para averiguar si necesita una puerta de enlace de virtualización de red en su red, pregúntese lo siguiente:
¿Necesita conectarse desde máquinas virtuales de redes de máquina virtual aisladas a otras aplicaciones
locales?
¿Necesita conectarse desde máquinas virtuales aisladas a Internet?
¿Necesita conectarse desde redes de máquina virtual aisladas a servicios compartidos como DNS?
En función de sus requisitos, puede configurar su puerta de enlace de varias formas:
La conectividad a una red pública puede conseguirse mediante NAT.
La conectividad a una red local se realiza a través de un túnel VPN (con o sin protocolo de puerta de enlace
de borde (BGP).
El enrutamiento directo sin NAT puede usarse en la conectividad entre diferentes redes de máquina virtual.
Prerrequisitos
Software de proveedor : si quiere usar un dispositivo de puerta de enlace que no sea de Windows,
necesitará el proveedor y una cuenta con permisos para configurar la puerta de enlace. Instale el proveedor
en el servidor VMM. En caso de que se precisen certificados (por ejemplo, si la puerta de enlace se encuentra
en un dominio que no sea de confianza), necesitará ver la información de huella digital de dichos
certificados.
Puer ta de enlace de Windows Ser ver : si quiere configurar una puerta de enlace que ejecute Windows
Server, puede usar una plantilla predefinida disponible en el Centro de descarga de Microsoft. La plantilla
admite System Center 2012 R2 o versiones posteriores.
Redes lógicas : necesita redes lógicas (necesitará más de una si quiere que la puerta de enlace se conecte
desde redes de máquina virtual en una red lógica a redes de máquina virtual en otra).
Configuración VPN remota : si quiere conectar la puerta de enlace a un servidor VPN remoto, necesitará:
La dirección IP del servidor remoto e información sobre las subredes locales o la dirección BGP si
procede.
Necesitará identificar cómo se autenticará con el servidor VPN remoto. Si usa una clave previamente
compartida, puede autenticarse con una cuenta de ejecución y especificar la clave compartida como
contraseña. O puede autenticarse con un certificado. El certificado puede ser uno seleccionado
automáticamente por el servidor VPN remoto u obtenido y colocado en la red por usted.
Compruebe si necesita una configuración de conexión VPN específica (cifrado, comprobaciones de
integridad, transformaciones del cifrado, transformaciones de la autenticación, el grupo de
confidencialidad directa total [PFS], el grupo Diffie-Hellman y el protocolo VPN) o puede usar la
configuración predeterminada.
NOTE
Las plantillas descargadas son aplicables a VMM 2012 R2, 2016 y la versión 1801.
2. La descarga es un archivo zip comprimido que necesitará extraer. Los archivos incluyen un manual del
usuario, dos plantillas de servicio y una carpeta de recursos personalizados (una carpeta con una extensión
.cr) que contiene los archivos necesarios para las plantillas de servicio.
3. Necesitará decidir qué plantilla usar y, después, seguir las instrucciones de la guía de inicio rápido. La guía
incluye los requisitos previos de la implementación de plantilla y las instrucciones para configurar redes
lógicas, crear un servidor de archivos de escalabilidad horizontal, preparar discos duros virtuales para la
máquina virtual de puerta de enlace y copiar el archivo de recursos personalizados en la biblioteca. Después
de que haya configurado la infraestructura, se describe cómo importar y personalizar la plantilla y cómo
implementarla. También existe información de solución de problemas en caso de que estos surgieran.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use este artículo para conocer y configurar perfiles de puerto de vínculo superior y perfiles de puerto de
adaptador de red virtual en el tejido de redes de System Center - Virtual Machine Manager (VMM).
Perfiles de puer to de vínculo superior : debe crear perfiles de puerto de vínculo superior y, a
continuación, aplicarlos a los adaptadores de red física cuando implemente conmutadores. Los perfiles de
puerto de vínculo superior definen el algoritmo de equilibrio de carga para un adaptador y especifican cómo
formar un equipo de varios adaptadores de red en un host que usen el mismo perfil de puerto de vínculo
superior. Este perfil se usa junto con la red lógica asociada al adaptador.
Perfiles de puer to de adaptador de red vir tual . Los perfiles de puerto de adaptador de red virtual se
aplican a adaptadores de red virtual. Estos perfiles definen funciones específicas, como la prioridad y las
limitaciones de ancho de banda. VMM incluye una serie de perfiles integrados.
Clasificaciones de puer to : después de crear perfiles de puerto de adaptador de red virtual, puede crear
clasificaciones de puerto. Las clasificaciones de puerto son abstracciones que identifican distintos tipos de
perfiles de puerto de adaptador de red virtual. Por ejemplo, podría crear una clasificación denominada FAST
para identificar puertos que están configurados para tener más ancho de banda y otra denominada SLOW
con menos ancho de banda. Las clasificaciones se incluyen en conmutadores lógicos. Los administradores y
los inquilinos pueden elegir una clasificación para sus adaptadores de máquina virtual. De forma
predeterminada, VMM incluye clasificaciones integradas que se asignan a los perfiles de puerto de
adaptador de red virtual integrados.
Pasos siguientes
Configurar conmutadores lógicos
Crear conmutadores lógicos
19/08/2021 • 28 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear conmutadores lógicos en el tejido de System Center - Virtual Machine
Manager (VMM).
EL EM EN TO C O N VERSIÓ N
11. Si la configuración del conmutador lógico no coincide como se describe en la tabla, debe encontrar o
crear un conmutador lógico que coincida.
Conversión de un host para usar un conmutador lógico
NOTE
La conversión no interrumpirá el tráfico de red.
Si se produce un error en cualquier operación en la conversión, no se cambiará ningún valor y el conmutador no se
convertirá.
1. En VMM, haga clic en Tejido > Ser vidores > Todos los hosts . Haga clic con el botón derecho en el host >
Propiedades .
2. En la pestaña Conmutadores vir tuales , haga clic en Conver tir en conmutador lógico .
3. Seleccione el conmutador lógico al que se va a convertir el host. A continuación, seleccione el perfil de
puerto de vínculo superior que desea utilizar y haga clic en Conver tir .
4. En función de la configuración, puede que aparezca el cuadro de diálogo Trabajos . Asegúrese de que el
trabajo tiene el estado Completado y cierre el cuadro de diálogo.
5. Para comprobar que se ha convertido el conmutador, haga clic con el botón derecho en el host, haga clic en
Propiedades y después haga clic en la pestaña Conmutadores vir tuales .
Script para la conversión del conmutador SET
NOTE
Cree un conmutador lógico en VMM con el mismo nombre que el conmutador SET implementado en el host. El
conmutador estándar se convertirá en este conmutador lógico después de ejecutar el siguiente script en el host.
#Replace Virtual Switch name with already deployed switch name on host
$VirtualSwitchName="SETswitch"
#Replace logical switch ID below with the one got from Get-SCLogicalSwitch cmdlet for the switch created in
VMM
$LogicalSwitchId="45b98a8d-1887-4431-9f20-8b9beed853ce"
#Replace the port profile set name with the one created and associated with the above logical switch in VMM
$PortProfileSetName="Mgmt_UPP"
#Replace uplink port profile set ID with the one got from Get-SCUplinkPortProfileSet for the port profile
set created in VMM
$PortProfileSetId="fd9e4c9a-4ffa-4845-808d-930e6616b62f"
Después de ejecutar el script, actualice el host en VMM y verifique si VMM reconoce el conmutador como lógico.
NOTE
El procedimiento siguiente no es aplicable para SET; use el script en su lugar.
Para poder realizar la conversión, necesita un conmutador lógico instalado, con una configuración específica.
Debe ser miembro del rol de usuario Administrador o miembro del rol de usuario Administrador delegado, en el que el
ámbito de administración incluye el grupo host en el que se encuentra el host de Hyper-V.
11. Si la configuración del conmutador lógico no coincide como se describe en la tabla, debe encontrar o
crear un conmutador lógico que coincida.
Conversión de un host para usar un conmutador lógico
NOTE
La conversión no interrumpirá el tráfico de red.
Si se produce un error en cualquier operación en la conversión, no se cambiará ningún valor y el conmutador no se
convertirá.
1. En VMM, haga clic en Tejido > Ser vidores > Todos los hosts . Haga clic con el botón derecho en el host >
Propiedades .
2. En la pestaña Conmutadores vir tuales , haga clic en Conver tir en conmutador lógico .
3. Seleccione el conmutador lógico al que se va a convertir el host. A continuación, seleccione el perfil de
puerto de vínculo superior que desea utilizar y haga clic en Conver tir .
4. En función de la configuración, puede que aparezca el cuadro de diálogo Trabajos . Asegúrese de que el
trabajo tiene el estado Completado y cierre el cuadro de diálogo.
5. Para comprobar que se ha convertido el conmutador, haga clic con el botón derecho en el host, haga clic en
Propiedades y después haga clic en la pestaña Conmutadores vir tuales .
Script para la conversión del conmutador SET
NOTE
Cree un conmutador lógico en VMM con el mismo nombre que el conmutador SET implementado en el host. El
conmutador estándar se convertirá en este conmutador lógico después de ejecutar el siguiente script en el host.
#Replace Virtual Switch name with already deployed switch name on host
$VirtualSwitchName="SETswitch"
#Replace logical switch ID below with the one got from Get-SCLogicalSwitch cmdlet for the switch created in
VMM
$LogicalSwitchId="45b98a8d-1887-4431-9f20-8b9beed853ce"
#Replace the port profile set name with the one created and associated with the above logical switch in VMM
$PortProfileSetName="Mgmt_UPP"
#Replace uplink port profile set ID with the one got from Get-SCUplinkPortProfileSet for the port profile
set created in VMM
$PortProfileSetId="fd9e4c9a-4ffa-4845-808d-930e6616b62f"
Después de ejecutar el script, actualice el host en VMM y verifique si VMM reconoce el conmutador como lógico.
A partir de VMM 2019 UR2, puede ver la topología del conmutador lógico. Para ello, haga clic con el botón
derecho en el nombre del conmutador lógico y, a continuación, haga clic en Ver topología . El diagrama de
topología muestra la siguiente información.
Perfiles de puer to de vínculo superior : incluye información sobre el algoritmo de equilibrio de carga, el
modo de formación de equipos y los sitios de red.
Adaptadores de red vir tual : incluye información sobre las redes de VM, las VLAN y las clasificaciones de
puerto.
NOTE
Para poder realizar la conversión, necesita un conmutador lógico instalado, con una configuración específica.
Debe ser miembro del rol de usuario Administrador o miembro del rol de usuario Administrador delegado, en el que el
ámbito de administración incluye el grupo host en el que se encuentra el host de Hyper-V.
11. Si la configuración del conmutador lógico no coincide como se describe en la tabla, debe encontrar o
crear un conmutador lógico que coincida.
Conversión de un host para usar un conmutador lógico
NOTE
La conversión no interrumpirá el tráfico de red.
Si se produce un error en cualquier operación en la conversión, no se cambiará ningún valor y el conmutador no se
convertirá.
1. En VMM, haga clic en Tejido > Ser vidores > Todos los hosts . Haga clic con el botón derecho en el host >
Propiedades .
2. En la pestaña Conmutadores vir tuales , haga clic en Conver tir en conmutador lógico .
3. Seleccione el conmutador lógico al que se va a convertir el host. A continuación, seleccione el perfil de
puerto de vínculo superior que desea utilizar y haga clic en Conver tir .
4. En función de la configuración, puede que aparezca el cuadro de diálogo Trabajos . Asegúrese de que el
trabajo tiene el estado Completado y cierre el cuadro de diálogo.
5. Para comprobar que se ha convertido el conmutador, haga clic con el botón derecho en el host, haga clic en
Propiedades y después haga clic en la pestaña Conmutadores vir tuales .
Pasos siguientes
Aplicar configuración de red en un host con un conmutador lógico.
Configurar grupos de direcciones MAC en el tejido
de VMM
21/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información sobre las direcciones MAC predeterminadas de System Center -
Virtual Machine Manager (VMM) y se describe cómo crear y administrar un grupo de direcciones MAC
personalizado.
VMM usa grupos de direcciones MAC estáticas para generar y asignar automáticamente direcciones MAC a
máquinas virtuales. En este artículo se describen los grupos de direcciones MAC predeterminadas en el tejido
de VMM y se explica cómo crear grupos personalizados.
Configuración del grupo de direcciones MAC predeterminadas:
Antes de empezar
Antes de crear un grupo de direcciones MAC personalizado, tenga en cuenta lo siguiente:
Si desea dividir uno de los grupos predeterminados en grupos personalizados más pequeños, primero debe
eliminar el grupo de direcciones MAC predeterminadas o el grupo de direcciones MAC predeterminadas de
VMware. Debe eliminar el grupo predeterminado para evitar la asignación de direcciones MAC duplicadas.
Los tres primeros octetos del principio y el final de la dirección MAC deben ser los mismos.
Debe escribir valores hexadecimales válidos entre 00 y FF.
Los intervalos que especifique no se pueden superponer.
El intervalo de direcciones no debe tener el bit de multidifusión establecido en 1. Por ejemplo, no puede usar
direcciones que empiecen por X1, X3, X5, X7, X9, XB, XD o XF, donde X es cualquier valor.
Para evitar conflictos con direcciones reservadas por Microsoft, VMware y Citrix, no use los siguientes
prefijos:
Reservados para Microsoft: 00:03:FF; 00:0D:3A; 00:12:5A; 00:15:5D; 00:17:FA; 00:50:F2; 00:1D:D8
(excepto el intervalo 00:1D:D8:B7:1C:00 – 00:1D:D8:F4:1F:FF, que está reservado para VMM)
Reservados para VMware: 00:05:69; 00:0C:29; 00:1C:14; 00:50:56 (excepto el intervalo
00:50:56:00:00:00 – 00:50:56:3F:FF:FF, que está reservado como intervalo estático de VMware
predeterminado)
Crear un grupo personalizado
1. Haga clic en Tejido > Redes > Grupos de direcciones MAC > Inicio > Mostrar > Recursos del tejido
> Crear > Crear grupo de direcciones MAC .
2. En Asistente para crear grupos de direcciones MAC > Nombre y grupo host , especifique un nombre
y una descripción. En Grupo host seleccione los grupos host que deben usar el grupo.
3. En Inter valo de direcciones MAC , especifique las direcciones inicial y final.
4. En Resumen , revise la configuración y haga clic en Finalizar . Cuando el trabajo se muestre como
Completado , compruebe el grupo en Grupos de direcciones MAC .
Liberar direcciones IP
En algunos casos, podría interesarle quitar direcciones del grupo de direcciones MAC. Por ejemplo, si un host al
que se asignó una dirección IP durante la implementación sin sistema operativo se quita de la administración de
VMM, o si una máquina virtual tiene el estado Falta porque se quitó de VMM.
1. Haga clic en Tejido > Redes > Grupos de direcciones MAC > Inicio > Mostrar > Recursos del tejido .
2. En Grupos de direcciones MAC , haga clic en el grupo que quiere modificar > Propiedades .
3. En Direcciones inactivas , seleccione las direcciones que quiere liberar.
Pasos siguientes
Obtenga información sobre cómo crear un grupo de direcciones IP.
Integrar el equilibrio de carga con plantillas de
servicio VMM
19/08/2021 • 9 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre la integración del equilibrio de carga de red (NLB) de
Windows, y los equilibradores de carga de hardware con plantillas de servicio de System Center - Virtual
Machine Manager (VMM).
Las plantillas de servicio agrupan máquinas virtuales para proporcionar una aplicación. Contienen información
sobre un servicio, incluidas las máquinas virtuales que se implementan como parte del servicio, las aplicaciones
instaladas en máquinas virtuales y la configuración de red que debe usarse. Puede agregar plantillas de
máquina virtual, configuración de red, aplicaciones y almacenamiento a una plantilla de servicio.
Las plantillas de servicio pueden ser de un solo nivel o de niveles múltiples. Un servicio de un solo nivel
contiene una máquina virtual que se usa como una aplicación específica. Un servicio de niveles múltiples
contiene varias máquinas virtuales. Más información.
Pasos siguientes
También puede configurar un equilibrador de carga de software en una infraestructura SDN en el tejido de
VMM.
Configurar un servidor IPAM en el tejido VMM
21/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se explica cómo agregar un servidor de administración de direcciones IP (IPAM) al tejido de red
de System Center - Virtual Machine Manager (VMM).
Un servidor IPAM le ayuda a planear, realizar un seguimiento y administrar el espacio de dirección IP que se usa
en sus redes.
Con un servidor IPAM en el tejido VMM, la configuración de la dirección IP que está asociada a las redes
lógicas y a las redes de máquina virtual en VMM se sincroniza mediante la configuración almacenada en el
servidor IPAM.
Como administrador puede usar el servidor IPAM para configurar y supervisar las redes lógicas y sus grupos
de direcciones IP y sitios de red asociados. También puede usar el servidor IPAM para supervisar el uso de
redes de máquina virtual que se han configurado o cambiado en VMM.
Los inquilinos deben seguir usando el servidor VMM (no IPAM) para configurar las redes de máquina virtual
que usan la virtualización de red. En otras palabras, para controlar el espacio de direcciones que
normalmente controlan los inquilinos en lugar de los administradores de VMM.
Antes de empezar
Asegúrese de que tiene un servidor IPAM. Más información. El servidor IPAM puede ejecutar estas versiones
de Windows Server.
Cree o identifique una cuenta de dominio y configúrela para que nunca expire. En el servidor IPAM, agregue
la cuenta a estos grupos:
Administradores de ASM en ser vidores de IPAM : un grupo local que existe en todos los
servidores de IPAM y proporciona permisos para la administración de espacio de direcciones (ASM) IP.
Para obtener más información, consulte Assign Administrator Roles (Asignación de roles de
administrador).
Usuarios de administración remota : un grupo integrado que proporciona acceso a los recursos
WMI a través de los protocolos de administración, como WS-Management a través del servicio
Administración remota de Windows.
Compruebe que la hora de los servidores IPAM y VMM esté sincronizada. Esto depende de la configuración
del Servicio de hora de Windows. Si no puede sincronizarlos, necesitará actualizar los permisos en el
software IPAM de forma que VMM pueda consultar la configuración horaria actual en el servidor. Para ello,
en el servidor IPAM, ejecute mimgmt.msc para abrir el complemento Control WMI (local). Haga clic con el
botón derecho en Control WMI (local) > Propiedades > Seguridad . Vaya a Root\CIMV2 , haga clic en el
botón Seguridad de la pestaña Seguridad y seleccione la cuenta que ha configurado. Para Llamada remota
habilitada , seleccione Permitir .
Compruebe el FQDN del servidor IPAM para usarlo como una cadena de conexión.
Compruebe los nombres de los grupos de host VMM para los que quiere usar el servidor IPAM.
El software de proveedor de un servidor IPAM está incluido en VMM. No necesita instalarlo. Puede revisar la
configuración en Configuración > Proveedores de configuración .
Si desea usar el servidor IPAM para eliminar una red lógica, elimine las subredes de direcciones IP asignadas
a esa red lógica, y no elimine el nombre asociado al campo Red lógica de VMM en el servidor IPAM. Los
dos servidores se podrán sincronizar correctamente y se eliminará la red lógica. Si elimina el nombre
asociado al campo Red lógica de VMM en el servidor IPAM, debe ir al servidor VMM y eliminar los sitios
de red y la red lógica. A continuación, después de sincronizar los dos servidores, se completará la
eliminación.
N O M B RE DE VM M N O M B RE DE IPA M
Reserva de dirección IP
VMM admite la reserva de IP en IPAM. Siga los pasos que se indican a continuación para reservar direcciones IP.
1. En IPAM, haga clic con el botón derecho en Inter valo de direcciones IP para la reserva de direcciones IP.
2. Haga clic en Editar inter valo de direcciones IP y se abre una ventana.
3. En la ventana abierta, hay una pestaña Reser vas a la izquierda.
4. En la pestaña Reser vas puede reservar direcciones IP o bien marcarlas para su uso como VIP.
5. Vaya a la consola de VMM. Actualice el servicio IPAM en la sección de servicio de red.
6. Ahora, puede ver las direcciones IP reservadas reflejadas en la sección de grupos de la red lógica.
Pasos siguientes
Configurar las redes lógicas
Configurar el tejido de almacenamiento de VMM
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Puede usar System Center - Virtual Machine Manager (VMM) para administrar su infraestructura virtualizada y
física. Como parte de esa administración, VMM puede administrar el almacenamiento que se asigna a las VM,
clústeres y hosts virtuales.
Local y remoto : VMM reconoce el almacenamiento local y remoto. Local es el almacenamiento ubicado en
el servidor VMM o conectado directamente a él, normalmente una unidad de disco en el servidor que está
conectada con conectividad RAID o JBOD SAS integrada. Obviamente, este tipo de almacenamiento de host
dedicado no es compartido y no proporciona resistencia o alta disponibilidad.
En bloque y basado en archivos : VMM puede administrar dispositivos de almacenamiento en bloque y
almacenamiento basado en archivos.
Almacenamiento en bloque
C A RA C T ERÍST IC A DETA L L ES
Canal de fibra vir tual Si desea utilizar el canal de fibra virtual para proporcionar a
las VM acceso directo al almacenamiento de canal de fibra,
puede administrar este almacenamiento con VMM en estas
configuraciones.
File Storage
VMM puede administrar un almacenamiento de archivos que admita el protocolo SMB 3.0. SMB es compatible
con recursos compartidos de archivos en equipos con Windows Server 2012 o posterior, y otros fabricantes de
dispositivos de almacenamiento conectado a red (NAS).
Ser vidor de archivos de Windows : puede agregar un servidor de archivos remoto como un dispositivo
de almacenamiento o puede escalar el Servidor de archivos de escalabilidad horizontal (SOFS) de
almacenamiento basado en archivos.
Ser vidor de archivos de escalabilidad horizontal (SOFS) : SOFS proporciona un clúster de servidores
de archivos en el que el almacenamiento se comparte entre los nodos del clúster. El almacenamiento de
SOFS podría ser una SAN (SAS, iSCSI y Fibre Channel) o puede integrarse con Espacios de almacenamiento
directo.
Espacios de almacenamiento directo (S2D) : S2D es la siguiente evolución de Espacios de
almacenamiento de Microsoft, que virtualiza el almacenamiento agrupando discos en grupos de
almacenamiento y creando discos virtuales (espacios de almacenamiento) desde la capacidad del grupo. En
S2D, puede compilar el almacenamiento de alta disponibilidad con el almacenamiento local. Esto elimina la
necesidad de dispositivos de almacenamiento SAN remotos y permite usar los dispositivos de
almacenamiento que no estaban disponibles anteriormente, por ejemplo, flash NVMe o SSD SATA. Más
información.
Replicación de almacenamiento : VMM admite la réplica de almacenamiento de Windows para proteger
los datos en un volumen de almacenamiento principal que se replica en un volumen secundario. Más
información.
Recursos de almacenamiento : puede controlar el acceso al almacenamiento compartido en una VM o
SOFS estableciendo directivas de calidad de servicio (QoS) de almacenamiento. Estas directivas establecen
un ancho de banda máximo y mínimo de recursos de almacenamiento.
Clasificaciones de almacenamiento
Las clasificaciones de almacenamiento proporcionan una capa de abstracción sobre los dispositivos de
almacenamiento específico. Agrupe los dispositivos de almacenamiento en función de sus características. Por
ejemplo, puede crear:
Bldg1Gold: un conjunto de unidades de estado sólido (SSD) que se pone a disposición de los usuarios en la
compilación 1.
Bldg1Silver: un conjunto de SSD y unidades de disco duro (HDD) que se pone a disposición de los usuarios
en la compilación 1.
Bldg2Gold: un conjunto de SSD que se pone a disposición de los usuarios en la compilación 2.
Bldg2Silver: un conjunto de SSD y HDD que se pone a disposición de los usuarios en la compilación 2.
Después de crear clasificaciones, asígnelas a grupos de almacenamiento que incluyan almacenamiento basado
en archivos o en bloque. Puede ajustar la configuración de clasificación para los recursos compartidos de
archivos dentro de los grupos según sea necesario.
Pasos siguientes
Configurar clasificaciones de almacenamiento en el tejido de VMM
Configurar clasificaciones de almacenamiento en el
tejido de VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use las clasificaciones de almacenamiento para abstraer los dispositivos de almacenamiento en el tejido de
System Center - Virtual Machine Manager (VMM). Clasifique los dispositivos de almacenamiento con
características similares y asigne estas clasificaciones, en lugar de dispositivos de almacenamiento específico, a
hosts y clústeres. El host y el clúster pueden usar cualquier almacenamiento disponible en la clasificación.
Las clasificaciones a menudo se basan en tipos de almacenamiento o en las características de rendimiento. Por
ejemplo, puede crear:
N O M B RE DESC RIP C IÓ N
Crear clasificaciones:
1. Haga clic en Tejido > Almacenamiento , haga clic con el botón derecho en Clasificación y grupos >
Crear clasificación .
2. En Nueva clasificación , escriba un nombre y una descripción > Agregar .
Pasos siguientes
Agregar dispositivos de almacenamiento al tejido de VMM.
Agregar dispositivos de almacenamiento al tejido
de VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Para administrar el almacenamiento de System Center - Virtual Machine Manager (VMM), debe detectarlo y
agregarlo al tejido de almacenamiento de VMM.
Antes de empezar
Asegúrese de que el dispositivo de almacenamiento es compatible antes de agregarlo.
Pasos siguientes
Asignar almacenamiento a grupos host
Asignar almacenamiento a grupos host
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Una vez que se haya detectado y clasificado el almacenamiento en bloque en el tejido de System Center -
Virtual Machine Manager (VMM), puede asignarlo a grupos host. Puede asignar un grupo de almacenamiento
completo o una unidad lógica (LUN) específica.
Asignar grupos de almacenamiento : opcionalmente, puede asignar grupos de almacenamiento a
grupos host. En ese caso, puede hacer lo siguiente:
Crear y asignar LUN directamente desde hosts de Hyper-V en el grupo host.
Usar el grupo de almacenamiento para el aprovisionamiento rápido mediante instantáneas o
clonación de SAN. Durante este proceso no es necesario que cree LUN, ya que VMM solicita una copia
de un LUN existente durante el aprovisionamiento.
Asignar LUN :
Puede asignar LUN para grupos de almacenamiento administrados en el tejido de VMM.
Para asignar LUN a grupos host, debe haber LUN sin asignar en los grupos de almacenamiento
administrados.
Si necesita más LUN, puede crearlos fuera de VMM en la herramienta de administración de
almacenamiento, o bien puede aprovisionarlos directamente en VMM si el grupo de
almacenamiento está asignado a un grupo host.
Pasos siguientes
Después de configurar hosts y clústeres de Hyper-V, obtenga información sobre el aprovisionamiento de
máquinas virtuales.
Configurar un servidor de destino iSCSI de
Microsoft en el tejido de almacenamiento de VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
El servidor de destino iSCSI de Microsoft es un rol de servidor que permite que una máquina de Windows
Server funcione como un dispositivo de almacenamiento. En este artículo se explica cómo configurar un
servidor de destino iSCSI de Microsoft para el almacenamiento de System Center - Virtual Machine Manager
(VMM).
Esto es lo que debe hacer:
1. Instalar el rol : instale el rol de servidor de destino iSCSI (Roles de ser vidor > Ser vicios de archivos y
almacenamiento > Ser vicios de archivos y iSCSI ) en un servidor que quiera agregar como dispositivo
de almacenamiento en bloque.
2. Configurar discos iSCSI vir tuales : después de instalar el rol, tendrá que configurar discos iSCSI virtuales
y conectarse a los servidores que quiera. Más información.
3. Instalar el proveedor : si el servidor de destino iSCSI ejecuta Windows Server 2012, debe instalar en él el
proveedor de SMI-S. El proveedor se encuentra junto con los archivos de instalación en
\amd64\Setup\msi\iSCSITargetSMISProvider.msi y en el servidor VMM en \Archivos de programa\Microsoft
System Center 2012\Virtual Machine Manager\Setup\Msi\iSCSITargetProv\iSCSITargetSMISProvider.msi.
Debe ejecutar el archivo .msi en el servidor de destino iSCSI. Si el servidor ejecuta Windows Server 2012 R2,
no es necesario que instale el proveedor.
4. Agregar cuenta : agregue la cuenta de administrador de VMM como administrador en el servidor.
5. Detectar en VMM : agregue el dispositivo de almacenamiento en VMM. Seleccione Dispositivos SAN y
NAS detectados y administrados por un proveedor de SMI-S como tipo de proveedor y especifique
la dirección IP o FQDN como servidor. Seleccione la cuenta con permisos en el servidor como cuenta de
ejecución. Agréguela a la clasificación de almacenamiento necesaria y complete el Asistente para agregar
dispositivos de almacenamiento .
Después de agregar el servidor como dispositivo de almacenamiento en la administración de VMM, puede
asignar los grupos de almacenamiento y los LUN a un grupo host y aprovisionar el almacenamiento en los
hosts y los clústeres.
Ejemplo de PowerShell
Puede usar VMM para configurar el servidor de destino iSCSI mediante Windows PowerShell. En esta sección se
enumeran algunas tareas comunes con ejemplos de los comandos de Windows PowerShell que puede usar
para realizarlas. El proveedor de SMI-S es compatible con todas las tareas de administración mediante VMM.
Administrar el almacenamiento en un servidor de destino iSCSI
Abra PowerShell y use los cmdlets que se describen a continuación para administrar los recursos del servidor de
destino iSCSI en VMM.
Adición de un proveedor de almacenamiento
C O M A N DO P RO P Ó SITO
C O M A N DO P RO P Ó SITO
C O M A N DO P RO P Ó SITO
$pool = Get-SCStoragePool -Name "MS iSCSITarget Obtenga el grupo de almacenamiento específico que se va a
Concrete: D:" agregar.
Creación de un LUN
C O M A N DO P RO P Ó SITO
$LUN = New-SCStorageLogicalUnit -Name "iSCSI1" - Cree un número de unidad lógica (LUN) de iSCSI.
StoragePool $pool -DiskSizeMB 1000
Retirada de recursos
C O M A N DO P RO P Ó SITO
Pasos siguientes
Obtenga más información sobre el aprovisionamiento de almacenamiento para hosts y clústeres de Hyper-V.
Configurar un canal de fibra virtual de Hyper-V en
el tejido de almacenamiento de VMM
19/08/2021 • 11 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para configurar un canal de fibra virtual de Hyper-V en el tejido de almacenamiento de System
Center - Virtual Machine Manager (VMM).
El canal de fibra virtual proporciona a las máquinas virtuales de Hyper-V conectividad directa al
almacenamiento basado en canal de fibra. Hyper-V proporciona puertos de canal de fibra desde los sistemas
operativos invitados, para que pueda virtualizar aplicaciones y cargas de trabajo que tienen dependencias en el
almacenamiento de canal de fibra. También es posible agrupar los sistemas operativos invitados a través del
canal de fibra.
Antes de empezar
VMM admite las siguientes implementaciones de canal de fibra virtual:
Una sola matriz de almacenamiento conectada a un solo tejido (formado por uno o varios
conmutadores) conectado a su vez a una única SAN virtual (vSAN). Una vSAN es un grupo con
nombre de puertos físicos de Adaptador de bus host (HBA) de canal de fibra en un equipo host al que
se conecta una VM para obtener acceso a los dispositivos de almacenamiento de canal de fibra.
Una sola matriz de almacenamiento conectada a varios tejidos (con uno o varios conmutadores por
tejido) conectados a su vez a una única vSAN.
Varias matrices de almacenamiento conectadas a un solo tejido (formado por uno o varios
conmutadores) conectado a su vez a una única vSAN.
Varias matrices de almacenamiento conectadas a varios tejidos (con uno o varios conmutadores por
tejido) conectados a su vez a varias vSAN. Esta configuración ofrece rutas de acceso de doble
redundancia a matrices de almacenamiento.
Esto es lo que necesita:
Se puede crear una o varias vSAN para cada equipo host. Una vSAN solo puede contener HBA de un mismo
tejido.
Las matrices de almacenamiento, los conmutadores y los HBA deben tener instalado el firmware y los
controladores más recientes.
Asegúrese de que las matrices de almacenamiento puedan presentar unidades lógicas (LU).
Habilite NPIV en los HBA y los conmutadores de canal de fibra.
Los hosts de Hyper-V deben ejecutar como mínimo Windows Server 2012.
Asegúrese de que hay instalado un proveedor de SMI-S. VMM administra tejidos de canal de fibra y
dispositivos de SAN mediante el proveedor de SMI-S. Recuerde que no debe instalar el proveedor de SMI-S
en el servidor VMM, sino en un servidor al que se pueda conectar el servidor VMM con una dirección IP o
FQDN.
Implementar Canal de fibra virtual
Esto es lo que debe hacer:
1. Detecte y clasifique los tejidos de canal de fibra.
2. Cree vSAN para cada equipo host mediante la agrupación de puertos HBA del host.
3. Cree una máquina virtual que pueda obtener acceso al almacenamiento de canal de fibra virtual.
4. Cree zonas que conecten cada host o vHBA de VM a una matriz de almacenamiento. Las zonas se usan para
conectar una matriz de canal de fibra a una VM de equipo host.
5. Cree LUN y regístrelos para un host, máquina virtual o nivel de servicio.
6. Cree una plantilla de servicio y agréguele plantillas de VM. Para cada vHBA, especifique asignaciones de
WWN dinámico o estático, y seleccione la clasificación. Cree e implemente un nivel de servicio basado en la
plantilla de servicio, para acceder al almacenamiento de canal de fibra virtual. Cree una zona de la matriz de
canal de fibra en el nivel, agregue un disco, cree un LUN y registre el LUN en el nivel.
Crear zonas
Las zonas se usan para conectar una matriz de canal de fibra a un host o máquina virtual (VM). Los puertos de
destino de la matriz de almacenamiento se asignan a los puertos HBA en el host o a los puertos HBA virtuales
(vHBA) de la máquina virtual. Puede crear zonas para un host, para una máquina virtual o para ambos. En el
caso de los clústeres de conmutación por error de Hyper-V, es necesaria una zona para cada host del clúster.
Observe lo siguiente:
Las zonas se agrupan en conjuntos de zonas, que usan dispositivos comunes de tejido de canal de fibra.
Cuando todas las zonas de un conjunto de zonas se agregan, se modifican o se quitan según sea necesario,
debe activarse el conjunto de zonas. La activación del conjunto de zonas inserta información de cada zona en
los conmutadores de canal de fibra en el tejido seleccionado.
Solo los miembros de la misma zona pueden comunicarse entre sí.
Tendrá que crear zonas nuevas y, después, activar el conjunto de zonas. La activación de un conjunto de
zonas puede producir tiempo de inactividad en el tejido mientras se propaga información a todos los
conmutadores.
Si desea agregar una matriz de almacenamiento a un clúster de Hyper-V, primero necesitará crear zonas de
la matriz en cada equipo host. De forma similar, si desea agregar una matriz a un clúster invitado, primero
necesitará crear zonas de la matriz en cada máquina virtual.
Configure las zonas de la manera siguiente:
1. Haga clic en Máquinas vir tuales y ser vicios > Ser vicios , haga clic con el botón derecho en la VM
aplicable > Propiedades > Almacenamiento > Agregar > Agregar matriz de canal de fibra .
2. En la página Agregar matriz de canal de fibra > Propiedades > Crear nueva zona especifique un
nombre de zona, seleccione una matriz de almacenamiento y, en Tejido , seleccione un conmutador. En
Puer tos de destino de matriz de almacenamiento , seleccione el puerto o los puertos WWPM
aplicables. En Puer tos de iniciador de máquina vir tual , seleccione el puerto o los puertos WWPM
aplicables. Después, haga clic en Crear . Haga clic en Mostrar alias para ver los alias de zona disponibles.
3. Para activar el conjunto de zonas, haga clic en Tejido > Nombre y seleccione el conjunto de zonas inactivo >
Activar conjunto de zonas .
4. Puede ver los conjuntos de zonas de un tejido en Tejido > Tejido de canal de fibra > Nombre . Haga clic
con el botón derecho en el tejido aplicable > Propiedades > Conjuntos de zonas .
5. Si quiere modificar la división en zonas de una matriz de almacenamiento, haga clic en Máquinas vir tuales
y ser vicios > host aplicable > Propiedades > Almacenamiento > Matrices de canal de fibra > Editar
> matriz aplicable y modifique la configuración de la división en zonas.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Puede administrar el almacenamiento de archivos compatible con SMB 3.0 en el tejido de almacenamiento de
System Center - Virtual Machine Manager (VMM). Esto incluye servidores de archivos de Windows, servidores
de archivos de escalabilidad horizontal (SOFS), dispositivos de almacenamiento conectado a la red (NAS) de
terceros como EMC y NetApp.
En este artículo se describe cómo agregar almacenamiento de archivos al tejido de VMM. Una vez que los
recursos compartidos estén disponibles en el tejido, podrá asignarlos a hosts y clústeres de Hyper-V.
Pasos siguientes
Después de configurar el host de Hyper-V o el clúster, obtenga información sobre aprovisionamiento de
máquinas virtuales.
Administrar Réplica de almacenamiento en VMM
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Antes de comenzar
VMM debe ejecutarse en Windows Server 2016 Datacenter Edition.
Hyper-V debe ejecutarse en Windows Server 2016 Datacenter, Server Core o Nano.
Solo se admite la replicación sincrónica. La asincrónica no se admite.
Necesitará dos conjuntos de almacenamiento, ya sea por volumen o de archivos. Las ubicaciones de origen y
destino deben tener el mismo tipo de almacenamiento (archivos o volumen), pero el almacenamiento real
puede ser mixto. Por ejemplo, podría tener SAN de canal de fibra en un extremo y Espacios de
almacenamiento directo (en modo hiperconvergido o desagregado) en el otro.
Cada conjunto de almacenamiento debe estar disponible en cada uno de los clústeres. El almacenamiento de
clúster no se debe compartir.
Los volúmenes de origen y de destino (incluidos los volúmenes de registro) tienen que ser idénticos en
tamaño y en tamaño de bloque. Esto se debe a que Réplica de almacenamiento usa replicación de bloque.
Necesita al menos una conexión de 1 GbE en cada servidor de almacenamiento, preferiblemente 10 GbE,
iWARP o InfiniBand.
Cada nodo de clúster o servidor de archivos necesita reglas de firewall que permitan el tráfico bidireccional
ICMP, SMB (puerto 445, más 5445 para SMB Direct) y WS-MAN (puerto 5985) entre todos los nodos.
Tiene que ser miembro del grupo de administradores en cada nodo del clúster.
Réplica de almacenamiento solo puede configurarse mediante Windows PowerShell en este momento.
El almacenamiento de origen y de destino debe estar administrado por el mismo servidor VMM.
No se admite la integración de VMM con Azure Site Recovery.
No se admite la configuración de grupos de orden y coherencia de escritura.
Pasos de implementación
1. Identificar el almacenamiento : identifique el almacenamiento de origen y de destino que quiere usar.
2. Detectar y clasificar : si el almacenamiento no se encuentra en el tejido de VMM, tendrá que detectarlo
con VMM. El almacenamiento de origen y de destino debe estar administrado por el mismo servidor
VMM. Después de la detección, hay que crear un bloque de almacenamiento y una clasificación de
almacenamiento. Más información.
3. Emparejar : empareje la matriz de almacenamiento de origen y de destino.
4. Aprovisionar : después de emparejar el almacenamiento, debe aprovisionar datos idénticos y volúmenes
de registro de los bloques de almacenamiento de origen y de destino creados en las respectivas matrices
de almacenamiento. Además de aprovisionar un volumen para los datos que se van a replicar, también
tiene que aprovisionar un volumen para la réplica de registros de transacciones. A medida que se
actualizan los datos en el almacenamiento de origen, se anexa el registro de transacciones y se
sincronizan los cambios diferenciales (con replicación sincrónica) con el almacenamiento de destino.
5. Crear grupos de replicación : después de crear los volúmenes, cree grupos de replicación. Los grupos
de replicación son grupos lógicos que contienen varios volúmenes. Los grupos de replicación tienen que
ser idénticos y contener los volúmenes de datos y de registro de los sitios de origen y de destino
respectivamente.
6. Habilitar la replicación : ahora puede habilitar la replicación entre los grupos de replicación de origen y
de destino.
7. Actualizar : para finalizar la creación de grupos de replicación y desencadenar la replicación inicial de los
datos, debe actualizar el proveedor de almacenamiento primario y secundario. Los datos se replican en el
almacenamiento de destino.
8. Comprobar el estado : ahora puede comprobar el estado del grupo de replicación principal. Su estado
debería ser Replicando.
9. Agregar máquinas vir tuales : mientras se ejecuta la replicación diferencial, puede agregar máquinas
virtuales que usen el almacenamiento incluido en el grupo de replicación. Cuando agregue las máquinas
virtuales, estas se detectarán y comenzarán a replicarse automáticamente.
10. Ejecutar la conmutación por error : cuando la replicación esté en el estado Sincronizando, puede
ejecutar una conmutación por error para comprobar que funciona según lo esperado. De momento no
hay ningún mecanismo de conmutación por error de prueba, así que tendrá que ejecutar una
conmutación por error manual en respuesta a los errores planeados o no planeados. Después de la
conmutación por error, puede eliminar la máquina virtual en el sitio de origen (si todavía existe) y crear
una en el sitio de destino con los datos replicados.
11. Ejecutar la conmutación por recuperación : una vez finalizada la conmutación por error y cuando las
máquinas virtuales de réplica estén en funcionamiento, puede ejecutar la conmutación por recuperación
cuando lo necesite. Tenga en cuenta que:
Si ejecuta una conmutación por error no planeada y la ubicación de origen no está disponible, deberá
ejecutar una conmutación por error para conmutar por recuperación desde la ubicación secundaria a
la principal y luego crear la máquina virtual en la ubicación principal.
Si ejecuta una conmutación por error planeada y la máquina virtual de origen todavía está disponible,
tendrá que detener la replicación, quitar la máquina virtual de origen, crear la máquina virtual en la
ubicación secundaria y luego reiniciar la replicación. Después, puede crear la máquina virtual en el
sitio principal con la misma configuración que la máquina virtual original.
Si ha creado el clúster fuera de VMM y necesita cambiar el nombre de la matriz para que coincida con el del
clúster, use: PowerShell Get-SCStorageArray -Name "existing-name" | Set-SCStorageArray -Name "new-name"
Habilitación de la replicación
Ahora habilite la replicación sincrónica entre los grupos de replicación de origen y de destino.
Crear una VM
Cree una máquina virtual con un LUN en el grupo de replicación de origen. También puede crear una máquina
virtual en la consola VMM.
Después de ejecutar la conmutación por recuperación, puede crear máquinas virtuales en el sitio de origen con
los archivos VHD o de configuración conmutados por recuperación.
Detención replicación
Si quiere detener la replicación, tendrá que ejecutar este cmdlet en el origen y el destino.
Set-SCReplicationGroup -ReplicationGroup $RecRG -Operation TearDown Tear down need to be done on both
RGs
Más información
Obtenga más información sobre Réplica de almacenamiento
Obtenga más información sobre la asignación de almacenamiento a los hosts y clústeres de Hyper-V.
Más información sobre Migrar almacenamiento.
Administrar el Servidor de archivos de escalabilidad
horizontal (SOFS) en el tejido de VMM
14/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
El Servidor de archivos de escalabilidad horizontal (SOFS) es un servidor de archivos que se implementa como
un clúster activo/activo basado en SMB 3.0. El uso de un clúster SOFS proporciona aplicaciones con el ancho de
banda de todos los nodos del clúster. Todos los nodos del clúster aceptan solicitudes SMB, lo que proporciona
una disponibilidad continua y conmutación por error transparente si un nodo deja de funcionar.
Puede agregar y administrar clústeres SOFS en el tejido de System Center - Virtual Machine Manager (VMM).
Hay varias maneras de agregar un clúster SOFS. Puede agregar un clúster SOFS existente al tejido, aprovisionar
un clúster SOFS desde máquinas de Windows existentes en el tejido o aprovisionar un clúster desde equipos sin
sistema operativo.
Realizar una actualización gradual de un clúster SOFS
Agregar un SOFS existente al tejido de almacenamiento de VMM
Crear un clúster SOFS desde servidores independientes en el tejido de VMM
Aprovisionar SOFS desde equipos sin sistema operativo
Ejecutar una actualización gradual de un clúster
SOFS a Windows Server 2016 en VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
La actualización gradual de clúster se introdujo en Windows Server 2016. Permite actualizar el sistema
operativo de los nodos de clúster en un clúster de Servidor de archivos de escalabilidad horizontal (SOFS), o
clúster de Hyper-V, sin detener las cargas de trabajo que se ejecutan en los nodos. Obtenga más información
sobre los requisitos y la arquitectura de la actualización gradual.
En este artículo se describe cómo realizar una actualización gradual de clúster de SOFS administrada en el tejido
de Virtual Machine Manager (VMM) de System Center. Esto es lo que hace la actualización:
Crea una plantilla : crea una plantilla de la configuración del nodo combinando el perfil de equipo físico
adecuado con las opciones de configuración del nodo detalladas en el Asistente para actualización.
Migra las cargas de trabajo : migra las cargas de trabajo fuera del nodo, de modo que las operaciones de
carga de trabajo no se interrumpan.
Quita el nodo : coloca el nodo en modo de mantenimiento y después lo quita del clúster. De este modo, se
quitan del nodo todos los agentes VMM, las extensiones de conmutador virtual, etc.
Aprovisiona el nodo : aprovisiona el nodo que ejecuta Windows Server 2016 y lo configura según la
plantilla guardada.
Devuelve el nodo a VMM : vuelve a incluir el nodo en la administración de VMM e instala el agente VMM.
Devuelve el nodo al clúster : vuelve a agregar el nodo al clúster SOFS, lo quita del modo de
mantenimiento y le devuelve las cargas de trabajo de máquina virtual.
Antes de empezar
El clúster debe estar administrado por VMM.
El clúster debe ejecutar Windows Server 2012 R2.
El clúster debe cumplir los requisitos para la implementación sin sistema operativo. La única excepción es
que el perfil de equipo físico no necesita incluir detalles de configuración de red o disco. Durante la
actualización, VMM registra la configuración de red y de disco del nodo y usa esa información en lugar del
perfil de equipo.
Puede actualizar los nodos que no se aprovisionaron originalmente mediante la implementación sin sistema
operativo, siempre y cuando dichos nodos cumplan los requisitos de la implementación sin sistema
operativo, como BMC. Debe proporcionar esta información en el asistente para actualización.
La biblioteca VMM necesita un disco duro virtual configurado con Windows Server 2016.
Ejecutar la actualización
1. Haga clic en Tejido > Almacenamiento > Ser vidores de archivos . Haga clic con el botón derecho en
SOFS > Actualizar clúster .
2. En el Asistente para actualización > Nodos , haga clic en los nodos que quiere actualizar o en Seleccionar
todo . Después, haga clic en Perfil de equipo físico y seleccione el perfil de los nodos.
3. En Configuración de BMC , seleccione la cuenta de ejecución con permisos para acceder al BMC o cree una
cuenta. En Protocolo de administración fuera de banda , haga clic en el protocolo que usan los BMC.
Para usar DCMI, haga clic en IPMI . DCMI es compatible, aunque no aparezca. Asegúrese de que aparece el
puerto correcto.
4. En Personalización de implementación , revise los nodos que se van a actualizar. Si el asistente no pudo
descubrir todos los valores de configuración, se muestra la alerta Faltan valores de configuración para el
nodo. Por ejemplo, si el nodo no se aprovisionó mediante una implementación sin sistema operativo, la
configuración de BMC podría no estar completa. Rellene la información que falta.
Si es necesario, escriba la dirección IP de BMC. También puede cambiar el nombre del nodo. No
desactive Omitir comprobación de Active Director y para este nombre de equipo , a menos
que vaya a cambiar el nombre del nodo y quiera asegurarse de que el nombre nuevo no está en uso.
En la configuración del adaptador de red puede especificar la dirección MAC. Hágalo si va a configurar
el adaptador de administración para el clúster y quiere configurarlo como un adaptador de red virtual.
No es la dirección MAC del BMC. Si decide especificar una configuración de IP estática para el
adaptador, seleccione una red lógica y una subred IP, si procede. Si la subred contiene un grupo de
direcciones, puede seleccionar Obtener una dirección IP correspondiente a la subred
seleccionada . De lo contrario, escriba una dirección IP que se encuentre dentro de la red lógica.
5. En Resumen , haga clic en Finalizar para empezar la actualización. Si el asistente finaliza, el nodo se
actualiza correctamente y todos los nodos SOFS ejecutan Windows Server 2016. El asistente actualiza el
nivel funcional del clúster a Windows Server 2016.
Si necesita actualizar el nivel funcional de un SOFS que se ha actualizado fuera de VMM, haga clic con el botón
derecho en Ser vidores de archivos > nombre de SOFS > Actualizar versión . Esto podría ser necesario si
actualizó los nodos SOFS antes de agregarlos al tejido de VMM, pero SOFS sigue funcionando como un clúster
de Windows Server 2012 R2.
Agregar un SOFS existente al tejido de VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Use las instrucciones de este artículo si quiere usar System Center - Virtual Machine Manager (VMM) para crear
un Servidor de archivos de escalabilidad horizontal (SOFS) desde servidores de archivos independientes
administrados en el tejido de VMM.
1. En la consola VMM, haga clic en Tejido > Crear > Clúster de ser vidor de archivos .
2. En el Asistente para crear ser vidor de archivos en clúster > General , especifique un nombre de clúster,
un nombre de servidor de archivos y direcciones IP, si es necesario.
3. En Tipo de recurso , seleccione la opción para aprovisionar equipos en los que esté instalado Windows
Server 2012 R2 o versiones posteriores y rellene los detalles.
4. En Nodos de clúster , defina una lista de equipos que se van a agregar al clúster.
5. En la página Resumen , confirme la configuración y haga clic en Finalizar .
Puede supervisar el estado del clúster en la página Trabajos . Cuando haya finalizado el trabajo, compruebe el
clúster en Tejido > Almacenamiento > Ser vidores de archivos .
Aprovisionar servidor de archivos de escalabilidad
horizontal (SOFS) desde equipos sin sistema
operativo en el tejido de VMM
21/08/2021 • 15 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Además de agregar servidores de archivos existentes a un clúster de SOFS en el tejido de System Center -
Virtual Machine Manager (VMM), VMM puede detectar máquinas sin sistema operativo como nodos del clúster
de SOFS. Este artículo incluye los pasos para configurar un clúster de SOFS sin sistema operativo en VMM.
Antes de empezar
Aquí está lo que necesita para la implementación:
Equipos físicos que implementar como nodos del clúster de SOFS. Estos equipos deben cumplir los
requisitos previos descritos en la tabla siguiente. Pueden estar ejecutándose en el sistema operativo o un
sistema operativo que se sobrescribirá durante el proceso de implementación.
Disco duro vir tual con un sistema operativo adecuado, que se encuentra en un recurso compartido de
biblioteca de VMM. Cuando cree el disco duro virtual, puede crear una máquina virtual, instalar el sistema
operativo invitado y, a continuación, utilizar Sysprep con las opciones /generalize y /oobe.
El sistema operativo en el disco duro virtual que implemente en los nodos de clústeres debe admitir la
opción de arranque desde disco duro virtual (VHD).
El Ser vidor PXE configurado con los Servicios de implementación de Windows es necesario para la
implementación sin sistema operativo.
Requisitos del equipo físico
REQ UISITO P REVIO DETA L L ES
REQ UISITO P REVIO DETA L L ES
Sistema operativo Los equipos físicos deben ejecutar Windows Server 2012 R2
o una versión más reciente.
Requisitos de implementación Debe tener un servidor PXE configurado con los Servicios de
implementación de Windows.
Disco duro vir tual Asegúrese de que tiene un disco duro virtual generalizado
en un recurso compartido de biblioteca VMM. Debería
ejecutarse en Windows Server 2012 R2 o posterior.
Pasos de implementación
1. Antes de iniciar : compruebe los requisitos previos anteriores antes de empezar.
2. Preparar el equipo físico : configure el BIOS en cada equipo físico para admitir la virtualización.
3. Preparar el entorno de ser vidor PXE : agregue el servidor PXE al tejido de VMM.
4. Agregar archivos de controlador : agregue archivos de controlador a la biblioteca de VMM si desea usar
controladores personalizados.
5. Crear perfil : cree un perfil para los equipos físicos.
6. Crear el clúster : ejecute el asistente para crear servidor de archivos en clúster para detectar los equipos
físicos, configurar el clúster e iniciar la implementación del clúster. Los equipos físicos arrancan desde una
imagen de Windows PE personalizada en el servidor PXE. Se habilitan los roles de servidor de archivos y el
clúster de conmutación por error. Una vez que se crea el clúster, se habilita el rol de servidor de archivos de
escalabilidad horizontal. Finalmente, se reinicia el equipo.
7. Agregar nodos al clúster de SOFS : una vez que se han aprovisionado los nodos, puede crear un nuevo
clúster con ellos o agregarlos a uno existente.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Puede administrar el servidor de archivos de escalabilidad horizontal (SOFS) en el tejido de System Center -
Virtual Machine Manager (VMM) de la siguiente forma:
Crear grupos de almacenamiento : cree grupos de almacenamiento para discos físicos en los nodos de
SOFS. A continuación, puede asignar los grupos de almacenamiento.
Crear recursos compar tidos de archivos : puede crear recursos compartidos en SOFS en el tejido de
VMM. Puede establecer el tipo de almacenamiento para un recurso compartido como un grupo de
almacenamiento, grupo local o volumen.
QoS : configure una directiva de calidad de servicio (QoS) para SOFS para controlar los recursos asignados a
las máquinas virtuales
Establecer un testigo de disco para un grupo de almacenamiento : Desde VMM 2016, puede
especificar que el testigo de disco para un clúster de SOFS deba provenir de un grupo de almacenamiento
determinado. Para ello, VMM crea un espacio de reflejo triple y lo configurará como testigo de disco del
clúster. El grupo de almacenamiento debe tener al menos cinco discos físicos.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Aprovisionamiento
Se pueden aprovisionar VM utilizando varios métodos:
Crear VM desde un disco duro virtual en blanco: cree una VM e instale un sistema operativo desde una
imagen .iso, medios extraíbles o desde un arranque de red con un servidor PXE.
Crear una VM desde un disco duro virtual existente: cree una VM desde un disco duro virtual en la biblioteca
de VMM. Recomendamos un VHD que se ha generalizado con Sysprep.
Clonar una VM desde una VM existente: clone una VM existente en la biblioteca de VMM para crear una
nueva. Recomendamos que clone una VM que se ha generalizado con Sysprep.
Crear una VM a partir de una plantilla: cree VM con una configuración coherente establecida en una plantilla
de VM. Las plantillas de VM son objetos XML almacenados en la biblioteca de VMM. Pueden utilizarse para
controlar y restringir la configuración de VM disponible para los usuarios de autoservicio. La configuración
de la plantilla incluye el perfil del sistema operativo invitado, un perfil de hardware y uno o más VHD que
pueden utilizarse para crear una VM.
Crear una VM en una implementación de ser vicio : en VMM, puede crear servicios que son una
agrupación lógica de VM que se configuran e implementan como entidad única de s. Un servicio de nivel
único incluye una sola VM. Los servicios de niveles múltiples tienen varias VM.
Aprovisionar rápidamente una VM mediante la copia de red del área de almacenamiento (SAN): implemente
una VM con capacidades de copia de SAN como instantánea y clonar. Puede aprovisionar rápidamente VM
independientes o VM aprovisionadas en un servicio.
NOTE
La dirección MAC que se va a asignar a la máquina virtual debe formar parte de un grupo de direcciones MAC accesible.
Como los usuarios del autoservicio no tienen visibilidad sobre los grupos de direcciones MAC del tejido, tienen que
coordinarse con los administradores para asegurarse de que la dirección MAC forma parte del grupo de direcciones MAC
accesible.
Pasos siguientes
Implementar máquinas virtuales desde un disco duro virtual en blanco
Implementar máquinas virtuales en el tejido de
VMM desde un disco duro virtual en blanco
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear e implementar máquinas virtuales en el tejido de System Center -
Virtual Machine Manager (VMM) desde un disco duro virtual (VHD) en blanco.
Antes de empezar
Para llevar a cabo los pasos, debe ser administrador o administrador delegado en el servidor de VMM o un
usuario de autoservicio.
Si es usuario de autoservicio, debe Implementar permisos con la acción Almacenar y volver a
implementar asignada. Primero debe implementar la máquina virtual en una nube privada y, luego,
almacenarla en la biblioteca.
Solo puede personalizar las opciones de las direcciones IP estáticas si crea una máquina virtual a partir de
una plantilla de máquina virtual.
Puede usar VMM para configurar las opciones de disponibilidad de la máquina virtual. Más información
Crear una VM
1. Haga clic en VM y ser vicios > Crear máquina vir tual >Crear máquina vir tual .
2. En Asistente para crear máquinas vir tuales > Seleccionar origen , haga clic en Crear la nueva
máquina vir tual con un disco duro vir tual en blanco > Siguiente .
3. En Identidad , especifique el nombre de la máquina virtual y una descripción opcional. En el cuadro
Generación , seleccione Generación 1 o Generación 2 . A continuación, haga clic en Siguiente .
4. En la página Configurar hardware , seleccione el perfil que desea usar desde la lista Perfil de
hardware o configure las opciones de hardware manualmente. La configuración de hardware mostrada
variará en función de si está implementando una máquina de primera o segunda generación. A
continuación, haga clic en Siguiente .
En Compatibilidad , si desea implementar la máquina virtual en una nube privada, seleccione un
perfil de capacidad que esté disponible para la nube privada.
En Configuración de bus , si desea instalar un sistema operativo desde un DVD o desde una
imagen .iso, asegúrese de que haya una unidad de DVD virtual configurada para usar una opción
disponible, como la opción Archivo de imagen ISO existente . Si desea usar un archivo de
imagen ISO, el archivo debe estar presente en la biblioteca de VMM.
Si desea almacenar la máquina virtual en la biblioteca de VMM antes de implementarla en un host,
use uno de los discos duros virtuales en blanco que se proporcionan de forma predeterminada en
la biblioteca de VMM. Haga clic en el disco duro virtual en Configuración de bus . Haga clic en
Utilizar un disco duro vir tual existente > Examinar y seleccione un disco duro en blanco.
Si la máquina virtual es de primera generación y se inicia desde la red para instalar un sistema
operativo, en Adaptadores de red , use el tipo de adaptador de red heredado.
5. En la página Seleccionar destino , especifique cómo se debe implementar la máquina virtual (en una
nube privada, en un host o almacenada en la biblioteca).
Pasos siguientes
Tras crear una máquina virtual mediante este método, puede instalar un sistema operativo desde una imagen
.iso, un CD o un DVD o desde un arranque de red si está disponible un servidor de entorno de ejecución previo
al arranque (PXE).
Implementación de máquinas virtuales en el tejido
de VMM desde un disco duro virtual existente
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear e implementar máquinas virtuales en el tejido de System Center Virtual
- Machine Manager (VMM) desde un disco duro virtual (VHD) existente.
Antes de empezar
Para llevar a cabo los pasos, debe ser administrador o administrador delegado en el servidor de VMM o un
usuario de autoservicio.
Si es usuario de autoservicio, debe Implementar permisos con la acción Almacenar y volver a
implementar asignada. Primero debe implementar la máquina virtual en una nube privada y, luego,
almacenarla en la biblioteca.
El disco duro virtual que desee usar debe almacenarse en la biblioteca de VMM. Más información
Use un disco duro virtual que se haya generalizado mediante Sysprep. Si no lo hace, la identidad de la
máquina virtual clonada será la misma que la de la máquina virtual de origen, por lo que se podrían producir
problemas si las activa juntas.
Crear una VM
1. Haga clic en VM y ser vicios > Crear máquina vir tual > Crear máquina vir tual .
2. En Asistente para crear máquinas vir tuales > Seleccionar origen , haga clic en Usar una
máquina vir tual, una plantilla de VM o un disco duro vir tual existentes > Examinar . Seleccione
un disco duro virtual existente.
3. En Identidad , especifique el nombre de la máquina virtual y una descripción opcional. Si el disco duro
virtual seleccionado tiene el formato .vhdx, en el cuadro Generación , seleccione Generación 1 o
Generación 2 . A continuación, haga clic en Siguiente .
4. En Configurar hardware , seleccione el perfil que desea usar desde la lista Perfil de hardware o
configure las opciones de hardware manualmente. La configuración de hardware mostrada variará en
función de si está implementando una máquina de primera o segunda generación. A continuación, haga
clic en Siguiente .
En Compatibilidad , si desea implementar la máquina virtual en una nube privada, seleccione un
perfil de capacidad que esté disponible para la nube privada.
En Configuración de bus , si desea instalar un sistema operativo desde un DVD o desde una
imagen .iso, asegúrese de que haya una unidad de DVD virtual configurada para usar una opción
disponible, como la opción Archivo de imagen ISO existente . Si desea usar un archivo de
imagen ISO, el archivo debe estar presente en la biblioteca de VMM.
Si desea almacenar la máquina virtual en la biblioteca de VMM antes de implementarla en un host,
use uno de los discos duros virtuales en blanco que se proporcionan de forma predeterminada en
la biblioteca de VMM. Haga clic en el disco duro virtual en Configuración de bus . Haga clic en
Utilizar un disco duro vir tual existente > Examinar y seleccione un disco duro en blanco.
Si la máquina virtual es de primera generación y se inicia desde la red para instalar un sistema
operativo, en Adaptadores de red , use el tipo de adaptador de red heredado.
5. En la página Seleccionar destino , especifique cómo se debe implementar la máquina virtual (en una
nube privada, en un host o almacenada en la biblioteca).
Pasos siguientes
Administrar la configuración de la máquina virtual
Clonar máquinas virtuales desde otra máquina
virtual en el tejido de VMM
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear e implementar máquinas virtuales mediante la clonación de máquinas
virtuales existentes en el tejido de System Center - Virtual Machine Manager (VMM).
Antes de empezar
Para llevar a cabo los pasos, debe ser administrador o administrador delegado en el servidor de VMM o un
usuario de autoservicio.
Al clonar una máquina virtual, no se elimina el origen de la máquina virtual existente. Le recomendamos que
clone una máquina virtual que se haya preparado y generalizado con la herramienta Sysprep. Si no utiliza un
disco duro virtual generalizado, la identidad de la nueva máquina virtual será idéntica al origen. Pueden
producirse problemas si activa al mismo tiempo dos máquinas virtuales con la misma identidad.
Puede clonar una máquina virtual que esté implementada en un host. La máquina puede estar en línea,
detenida o en un estado guardado.
Puede clonar una máquina virtual almacenada en la biblioteca VMM.
La opción de usar optimizaciones de disco de diferenciación se aplica automáticamente al implementar la
máquina virtual en un host, si existe un disco base en dicho host.
Si es usuario de autoservicio, debe Implementar permisos con la acción Almacenar y volver a
implementar asignada. Primero debe implementar la máquina virtual en una nube privada y, luego,
almacenarla en la biblioteca.
Crear una VM
1. Haga clic en VM y ser vicios > Crear máquina vir tual > Crear máquina vir tual .
2. En Asistente para crear máquinas vir tuales > Seleccionar origen , haga clic en Usar una máquina
vir tual, una plantilla de VM o un disco duro vir tual existentes > Examinar . Seleccione una máquina
virtual existente.
3. En Seleccionar origen , haga clic en Siguiente .
4. En Configurar hardware , configure opcionalmente las opciones disponibles. A continuación, haga clic en
Siguiente .
5. En la página Seleccionar destino , especifique cómo se debe implementar la máquina virtual (en una nube
privada, en un host o almacenada en la biblioteca).
Pasos siguientes
Administrar la configuración de la máquina virtual
Implementación de máquinas virtuales con
aprovisionamiento rápido mediante la copia de
SAN en el tejido de VMM
19/08/2021 • 13 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo aprovisionar rápidamente máquinas virtuales en el tejido de System Center -
Virtual Machine Manager (VMM) usando la copia SAN.
El aprovisionamiento rápido ofrece un método para implementar nuevas máquinas virtuales en matrices de
almacenamiento sin tener que copiar las máquinas virtuales a través de la red. VMM usa la infraestructura de
SAN para la clonación de máquinas virtuales mediante una plantilla de máquina virtual para personalizar el
sistema operativo invitado.
Puede usar el aprovisionamiento rápido para implementar máquinas virtuales independientes y máquinas
virtuales implementadas como parte de un servicio.
Puede crear una plantilla compatible con copia SAN desde un disco duro virtual (VHD) que resida en una
unidad lógica de almacenamiento que admite la copia SAN a través de clonación o instantáneas.
Al crear una máquina virtual con la plantilla compatible con la copia SAN, VMM crea rápidamente una copia
de lectura-escritura de la unidad lógica que contiene el disco duro virtual y coloca los archivos de la máquina
virtual en la unidad lógica nueva. Cuando VMM implementa una máquina virtual mediante
aprovisionamiento rápido a través de una copia SAN, VMM usa una transferencia SAN, en lugar de una
transferencia de red. Durante una transferencia SAN, se crea una copia SAN de la unidad lógica que contiene
la máquina virtual y se asigna al host o clúster de hosts de destino. Debido a que los archivos para una
máquina virtual realmente no se mueven a través de la red al transferir una máquina virtual a través de una
SAN, es un proceso mucho más rápido que la realización de una transferencia a través de una red estándar
Puede utilizar cualquiera de los métodos siguientes para crear una plantilla compatible con copia SAN.
Creación de una plantilla compatible con la copia SAN desde una máquina virtual nueva
Creación de una plantilla compatible con la copia SAN desde una máquina virtual existente
Antes de empezar
Cualquier almacenamiento que sea accesible para el equipo aprovisionado puede tener particiones durante
el proceso de aprovisionamiento, incluso si se selecciona un disco concreto para utilizarlo como disco del
sistema operativo. En este caso, se perderán datos. Para garantizar el uso de un volumen de arranque
específico, utilice la detección en profundidad y no reinicie el equipo antes de que finalice la implementación
del sistema operativo.
La matriz de almacenamiento debe ser compatible con las nuevas características de administración del
almacenamiento de VMM.
La matriz de almacenamiento debe admitir la clonación o las instantáneas, y debe estar habilitada la función
de clonación o instantáneas. Esto podría requerir una licencia adicional de su proveedor de almacenamiento.
El bloque de almacenamiento que desee usar para el aprovisionamiento rápido debe estar administrado por
VMM. Para cumplir este requisito, debe agregar el proveedor Storage Management Initiative Specification
(SMI-S) a la matriz, detectar bloques de almacenamiento, clasificar el almacenamiento y configurar el
método de asignación preferido para la matriz de almacenamiento como instantánea o clonación.
El bloque de almacenamiento que desee utilizar para el aprovisionamiento rápido debe asignarse al grupo
host en el que desee usar el aprovisionamiento rápido de máquinas virtuales.
Los hosts de Hyper-V que desee utilizar como destinos de colocación deben ser miembros del grupo host.
Además, deben cumplirse los siguientes requisitos previos:
Si desea crear una plantilla compatible con copia SAN desde una máquina virtual nueva, el host en el
que cree la máquina virtual también debe ser miembro de este grupo host.
Si desea crear una plantilla compatible con copia SAN desde una máquina virtual existente y desea
crear la unidad lógica y asignarla desde el servidor de biblioteca, dicho servidor debe ser miembro de
este grupo host. Por lo tanto, el servidor de biblioteca debe ser un host de Hyper-V. (Si no desea
agregar el servidor de biblioteca como host, puede asignar la unidad lógica fuera de banda con las
herramientas de administración del proveedor de la matriz de almacenamiento.)
Si desea usar el aprovisionamiento rápido para implementar máquinas virtuales de segunda
generación, debe elegir un host con un sistema operativo que las admita.
Todos los hosts de Hyper-V que desee utilizar para el aprovisionamiento rápido y el servidor de
biblioteca deben tener acceso a la matriz de almacenamiento. Además, deben utilizar el mismo tipo de
conectividad SAN. Para que las migraciones de SAN se realicen correctamente, no puede haber unos
hosts que se conecten a la matriz a través de canal de fibra y otros que lo hagan a través de iSCSI. La
configuración varía en función del hardware de almacenamiento.
El proveedor de almacenamiento debería proporcionarle información de configuración específica, aunque la
configuración normalmente necesita lo siguiente:
La característica de E/S de múltiples rutas (MPIO) debe agregarse a todos los hosts que accedan a la
matriz de almacenamiento a través de iSCSI o canal de fibra. La característica MPIO se puede agregar
a través del Administrador del servidor.
Si la característica MPIO ya está habilitada antes de agregar un host a la administración de
VMM, VMM habilitará automáticamente MPIO para matrices de almacenamiento compatibles
usando el módulo específico del dispositivo (DSM) proporcionado por Microsoft. Si ya ha
instalado DSM específicos del proveedor para matrices de almacenamiento compatibles y, a
continuación, agrega el host a la administración de VMM, se usará la configuración de MPIO
específica del proveedor para la comunicación con esas matrices.
Si agrega un host a VMM antes de agregar la característica MPIO, tendrá que configurar MPIO
manualmente para agregar los identificadores de hardware de los dispositivos detectados.
También puede instalar DSM específicos del proveedor.
Si utiliza una red de área de almacenamiento (SAN) de canal de fibra, cada host que vaya a
obtener acceso a la matriz de almacenamiento debe tener instalado un adaptador de bus host
(HBA). Asegúrese también de que los hosts están divididos por las zonas correspondientes, con
el fin de que puedan tener acceso a la matriz de almacenamiento.
Si utiliza una red SAN iSCSI, asegúrese de que se han agregado portales de iSCSI y que el
iniciador iSCSI está registrado en la matriz. Asimismo, asegúrese de que el Servicio del
iniciador iSCSI de Microsoft de cada host se inicie y esté configurado en Automático. Para
obtener información sobre cómo crear una sesión iSCSI en un host a través de VMM, consulte
Cómo configurar el almacenamiento en un clúster de hosts de Hyper-V en VMM.
Crear una plantilla compatible con copia SAN desde una máquina
virtual nueva
Cree una máquina virtual en una unidad lógica asignada a un host de Hyper-V. En el servidor de biblioteca, cree
una plantilla compatible con la copia SAN desde la máquina virtual. Observe lo siguiente:
El servidor de biblioteca no tiene que ser un host de Hyper-V administrado, pero debe tener acceso al bloque
de almacenamiento en el que reside la unidad lógica.
Cuando cree la plantilla, automáticamente se anulará el registro de la unidad lógica en el host y se registrará
en el servidor de biblioteca.
1. Cree una unidad lógica en el tejido de almacenamiento de VMM, desde el bloque de almacenamiento
administrado que desee usar para efectuar el aprovisionamiento rápido. También puede crear y asignar la
unidad lógica en la herramienta de administración de la matriz de almacenamiento.
2. Asigne la unidad lógica al grupo host en el que reside el host de destino. Luego, asigne la unidad lógica al
host. Al asignar el LUN, puede darle formato y asignar una letra de unidad. Tenga en cuenta que la unidad
lógica que desea asignar debe estar vacía.
3. Cree una máquina virtual con un archivo de disco duro virtual en blanco en la unidad lógica.
En Seleccionar origen , seleccione Crear la nueva máquina vir tual con un disco duro vir tual
en blanco .
En Configurar hardware , configure los ajustes necesarios. Asegúrese de que la opción Crear un
nuevo disco duro vir tual esté seleccionada.
En Seleccionar destino , acepte la configuración predeterminada de Colocar la máquina vir tual
en un host .
En Configurar opciones , en Seleccionar la carpeta de destino , haga clic en la unidad que creó a
partir de la unidad lógica asignada. Compruebe que SAN (compatible con migración) aparece
junto a la información de la unidad. Por ejemplo: (L:) [9,92 GB disponibles de 10,00 GB, SAN
(compatible con migración)] .
En Recursos de la máquina , haga clic en Disco duro vir tual . En Examinar > Seleccionar la
carpeta de destino , haga clic en la unidad que ha creado desde la unidad lógica asignada.
En Seleccionar red y Agregar propiedades , seleccione las opciones necesarias. En Resumen ,
revise la configuración y haga clic en Crear . Compruebe que la máquina virtual aparece en VM y
ser vicios > Todos los hosts > VM .
4. En la máquina virtual nueva, instale y personalice el sistema operativo invitado y las aplicaciones que
desee. Generalice la imagen mediante Sysprep.exe con las opciones /generalize y /oobe para
generalizar el disco duro virtual asociado. Más información. Cuando termine, asegúrese de que no haya
ningún archivo de imagen .iso conectado a la unidad de DVD virtual.
Crear una plantilla compatible con la copia SAN desde una máquina
virtual existente
Cree una plantilla desde una máquina virtual existente.
Si desea llevar a cabo este procedimiento en VMM, debe agregar el servidor de biblioteca como host de
Hyper-V administrado. Esto le permite asignar la unidad lógica al servidor de biblioteca mediante VMM. Si
no desea que la biblioteca sea un host de Hyper-V administrado, puede usar las herramientas de
administración del proveedor de la matriz para asignar la unidad lógica al servidor de biblioteca.
Debe tener un disco duro virtual existente (generalizado mediante Sysprep) que usará como imagen base
para el aprovisionamiento rápido.
Cree una carpeta en el recurso compartido de biblioteca que usará para montar la unidad lógica y almacenar
el disco duro virtual. Por ejemplo, cree una carpeta en el recurso compartido de biblioteca SEALibrary que se
denomine “VHD de aprovisionamiento rápido”.
1. Cree una unidad lógica en el tejido de almacenamiento de VMM, desde el bloque de almacenamiento
administrado que desee usar para efectuar el aprovisionamiento rápido.
2. Dé formato a la unidad lógica y móntela en la ruta de acceso de la carpeta que creó.
3. Asigne la unidad lógica al servidor de biblioteca. Si el servidor de biblioteca es un host de Hyper-V
administrado, puede crear y asignar la unidad lógica desde el servidor de biblioteca. También puede dar
formato al disco con NTFS y montar la unidad lógica en la ruta de acceso de la carpeta del recurso
compartido de biblioteca al mismo tiempo.
Al crear la unidad lógica, seleccione la opción Montar en la siguiente carpeta NTFS vacía >
Examinar y, luego, haga clic en la carpeta creada.
No asigne ninguna letra de unidad. Tampoco cree nunca varios puntos de montaje en la carpeta.
4. Si el servidor de biblioteca no es un host de Hyper-V administrado, use las herramientas de
administración de su proveedor de la matriz para crear la unidad lógica y para quitar la máscara de la
unidad lógica en el servidor de biblioteca. A continuación, haga lo siguiente:
No asigne una letra de unidad.
Use Administración de discos (diskmgmt.msc) para volver a examinar el disco, inicializar el disco y
darle formato.
En Administración de discos, monte la unidad lógica en la ruta de acceso de la carpeta que creó en el
recurso compartido de biblioteca (Cambiar la letra y rutas de acceso de unidad > Agregar >
Montar en la siguiente carpeta NTFS vacía y haga clic en la carpeta de biblioteca vacía).
5. Copie el disco duro virtual que desea usar en la nueva carpeta del recurso compartido de biblioteca.
Tenga en cuenta que el disco duro virtual debe ser el único archivo de la unidad lógica.
6. La nueva carpeta que creó aparece en el recurso compartido de biblioteca. Para comprobar la opción
Compatible con copia SAN del disco duro virtual, haga clic en la nueva carpeta y, en Objetos de
biblioteca física , haga clic en el archivo VHD. En Compatible con copia SAN debe aparecer Sí .
Pasos siguientes
Administrar la configuración de la máquina virtual
Creación e implementación de máquinas virtuales
en el tejido de VMM desde una plantilla de
máquina virtual
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear máquinas virtuales en el tejido de System Center - Virtual Machine
Manager (VMM) a partir de una plantilla de máquina virtual de VMM. Puede usar una plantilla de máquina
virtual para crear máquinas virtuales independientes o para crear máquinas virtuales en niveles en una plantilla
de servicio.
Antes de empezar
Algunas opciones, como los roles y las características de servidor, la instalación de la aplicación y las
opciones de SQL Server, solo se aplican cuando se usa una plantilla de máquina virtual para las
implementaciones de servicio. Para la creación de máquinas virtuales independientes, estas opciones no se
usan y no aparecerán al crear una máquina virtual independiente.
La capacidad de configurar una máquina virtual para usar direcciones IP estáticas desde un grupo de
direcciones IP administrado por VMM solo está disponible si implementa una máquina virtual mediante una
plantilla de máquina virtual.
Para llevar a cabo los pasos, debe ser administrador o administrador delegado en el servidor de VMM o un
usuario de autoservicio.
Si es usuario de autoservicio, debe Implementar permisos con la acción Almacenar y volver a
implementar asignada. Primero debe implementar la máquina virtual en una nube privada y, luego,
almacenarla en la biblioteca.
Solo puede personalizar las opciones de las direcciones IP estáticas si crea una máquina virtual a partir de
una plantilla de máquina virtual.
Puede usar VMM para configurar las opciones de disponibilidad de la máquina virtual. Más información.
Crear una VM
1. Haga clic en VM y ser vicios > Crear máquina vir tual >Crear máquina vir tual .
2. En Asistente para crear máquinas vir tuales > Seleccionar origen , haga clic en Usar una
máquina vir tual, una plantilla de VM o un disco duro vir tual existentes > Examinar .
3. En Seleccionar origen de máquina vir tual , seleccione la plantilla > Aceptar . Haga clic en Aceptar si
aparece un mensaje que indica que se omitirán algunas opciones de implementación.
4. En Seleccionar origen , haga clic en Siguiente .
5. En Identidad , especifique el nombre de la máquina virtual y una descripción opcional. A continuación,
haga clic en Siguiente .
6. En la página Configurar hardware , seleccione el perfil que desea usar desde la lista Perfil de
hardware o configure las opciones de hardware manualmente. La configuración de hardware mostrada
variará en función de si está implementando una máquina de primera o segunda generación. A
continuación, haga clic en Siguiente .
En Compatibilidad , si desea implementar la máquina virtual en una nube privada, seleccione un
perfil de capacidad que esté disponible para la nube privada.
En Adaptadores de red :
Si desea usar direcciones IP estáticas, establezca la dirección MAC en estática.
Si la máquina virtual usa un disco duro virtual con el formato .vmdk de VMware, incluya un
adaptador de red heredado en la plantilla (Nuevo > Adaptador de red > Adaptador de red
heredado . Si no lo hace, es posible que la máquina virtual no se pueda iniciar en un dominio,
aunque sea correcta en un grupo de trabajo.
En Configurar sistema operativo , especifique las opciones del sistema operativo invitado. Si ya
tiene un perfil, selecciónelo en la lista Perfil de SO invitado .
7. En la página Seleccionar destino , especifique cómo se debe implementar la máquina virtual (en una
nube privada, en un host o almacenada en la biblioteca).
Pasos siguientes
Configuración de las opciones de la máquina virtual
Crear e implementar máquinas virtuales de Linux en
el tejido de VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear e implementar máquinas virtuales de Linux en el tejido de System
Center - Virtual Machine Manager (VMM).
Antes de empezar
VMM admite máquinas virtuales que contienen Linux como sistema operativo invitado. Observe lo siguiente:
Linux Integration Services (LIS) debe instalarse en la máquina virtual.
El agente invitado de VMM para Linux debe instalarse en la máquina virtual. Es necesario para la
integración de la plantilla de servicio y permite modificar las propiedades del equipo Linux, como el
nombre de host.
NOTE
SCVMMLinuxGuestAgent (XPlat) cfghostdomain descifra el archivo de hosts si el nombre de host ya está
establecido en localhost. Se recomienda no establecer el nombre de host como localhost al implementar máquinas
virtuales de Linux a través de VMM.
VMM no comprueba que la máquina virtual cumpla estos requisitos. Pero si no lo hace, la
implementación de máquinas virtuales producirá un error.
./install scvmmguestagent.1.0.0.544.x64.tar
./install scvmmguestagent.1.0.0.544.x86.tar
Cuando el agente se instala en la máquina virtual, se crearán los siguientes archivos y carpetas en el disco duro
virtual:
Una carpeta de instalación predeterminada (/opt/microsoft/scvmmguestagent) y un archivo de registro de
instalación (scvmm-install.log).
Una carpeta de archivos de registro predeterminada (/var/opt/microsoft/scvmmagent/log)
Un archivo de registro de especialización (scvmm.log). Este archivo se crea cuando la máquina virtual está
implementada y especializada.
Un archivo de configuración (scvmm.conf). Este archivo contiene la ubicación del archivo de registro y se usa
para controlar el registro durante la implementación y la especialización.
Pasos siguientes
vm-settings
Configuración de una máquina virtual anidada
como un host
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
La virtualización anidada es una funcionalidad de Windows Server 2016 y, sobre todo, le permite ejecutar
Hyper-V dentro de una máquina virtual de Hyper-V. En otras palabras, con la virtualización anidada, se puede
virtualizar el mismo host de Hyper-V. La virtualización anidada se puede habilitar fuera de banda mediante la
configuración de host de Hyper-V y PowerShell.
Puede aprovechar esta funcionalidad para reducir los gastos de infraestructura para los escenarios de desarrollo
y pruebas sin necesidad de hardware individual.
Con System Center - Virtual Machine Manager (VMM) 1801 y versiones posteriores, puede habilitar y
deshabilitar la característica de virtualización anidada a través de la consola VMM. Puede configurar la máquina
virtual anidada como un host en VMM y realizar operaciones de host de VMM en esta máquina virtual. Por
ejemplo, la optimización dinámica de VMM tendrá en cuenta un host de máquina virtual anidada para la
selección de ubicación.
Habilite la virtualización anidada en una máquina virtual y, después, configúrela como un host.
NOTE
Las aplicaciones de virtualización que no sean Hyper-V no se admiten en las máquinas virtuales de Hyper-V y suelen
producir errores. Esto incluye cualquier software que requiera extensiones de virtualización de hardware.
Antes de empezar
Asegúrese de que se cumplen los siguientes requisitos previos:
Host de Hyper-V que ejecuta Windows Server 2016, Windows Server 2019.
Máquina virtual de Hyper-V que ejecuta Windows Server 2016, Windows Server 2019.
Una VM de Hyper-V con la versión de configuración 8.0 o posterior.
Un procesador Intel con tecnología VT-x y EPT.
Asegúrese de que se cumplen los siguientes requisitos previos:
Host de Hyper-V que ejecuta Windows Server 2016.
Máquina virtual de Hyper-V que ejecuta Windows Server 2016.
Una VM de Hyper-V con la versión de configuración 8.0 o posterior.
Un procesador Intel con tecnología VT-x y EPT.
3. Haga clic con el botón derecho en la máquina virtual y seleccione Configurar como host . Se abre el
Asistente para agregar recursos .
NOTE
Revise la nota de la parte inferior de la página del Asistente antes de deshabilitar la virtualización anidada.
NOTE
Asegúrese de que las máquinas virtuales que se van a crear con estas plantillas cumplen los requisitos previos anteriores.
Para habilitar la virtualización anidada, en el Asistente para crear plantillas de VM , seleccione Seleccionar
origen y luego Habilitar vir tualización anidada en el panel derecho del asistente.
Habilitación de la virtualización anidada a través del Asistente para crear máquinas virtuales
Puede habilitar la virtualización anidada en las máquinas virtuales que se crean a través del Asistente para crear
máquinas virtuales.
NOTE
Asegúrese de que las máquinas virtuales que se van a crear con este asistente cumplen los requisitos previos anteriores.
Para habilitar la virtualización anidada, en el Asistente para crear máquinas vir tuales , seleccione
Seleccionar origen y luego Habilitar vir tualización anidada en el panel derecho del asistente.
Habilitación de la virtualización anidada a través de plantillas de servicio
Puede habilitar la virtualización anidada en las máquinas virtuales que se crean a través de plantillas de servicio.
NOTE
Asegúrese de que las máquinas virtuales que se van a crear con esta plantilla cumplen los requisitos previos anteriores.
Para habilitar la virtualización anidada, en el Propiedades de nivel sencillo , seleccione General y luego
Habilitar vir tualización anidada en el panel derecho del asistente.
Pasos siguientes
Ejecución de Hyper-V en una máquina virtual anidada
Conversión de una máquina virtual de VMware a
Hyper-V en el tejido de VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo convertir máquinas virtuales VMware en el tejido de System Center - Virtual
Machine Manager (VMM) a Hyper-V.
Puede convertir las máquinas virtuales mediante el Asistente para convertir máquina virtual.
VMM 2019 UR3 admite la conversión de máquinas virtuales VMWare en Hyper-V y Azure Stack HCI 20H2.
Obtenga más información sobre la compatibilidad con Azure Stack HCI 20H2.
Asistente para conver tir máquina vir tual : en la consola de VMM puede usar este asistente. Este método
tiene una serie de limitaciones:
Consulte los requisitos del sistema para versiones compatibles de vSphere (ESXi).
No se pueden convertir estaciones de trabajo de VMware.
No se pueden convertir máquinas virtuales con discos duros virtuales conectados a un bus IDE.
No se admiten las conversiones en línea. Es necesario apagar las máquinas virtuales de VMware.
Las aplicaciones antivirus deben ser compatibles.
Se deben desinstalar las herramientas de VMware desde el sistema operativo invitado de la VM.
Actualmente hay un par de métodos disponibles para convertir máquinas virtuales de VMWare a Hyper-V:
Asistente para conver tir máquina vir tual : en la consola de VMM puede usar este asistente. Este método
tiene una serie de limitaciones:
Consulte los requisitos del sistema para versiones compatibles de vSphere (ESXi).
No se pueden convertir estaciones de trabajo de VMware.
No se pueden convertir máquinas virtuales con discos duros virtuales conectados a un bus IDE.
No se admiten las conversiones en línea. Es necesario apagar las máquinas virtuales de VMware.
Las aplicaciones antivirus deben ser compatibles.
Se deben desinstalar las herramientas de VMware desde el sistema operativo invitado de la VM.
Microsoft Virtual Machine Converter: esta herramienta independiente convierte las máquinas virtuales de
VMware en hosts de Hyper-V o en máquinas virtuales de Azure. También convierte máquinas y discos físicos
en hosts de Hyper-V. IMPORTANTE: Esta herramienta está en proceso de retirada. No estará disponible a
partir del 3 de junio de 2017. Más información.
NOTE
Actualmente, Azure Site Recovery no tiene la capacidad para efectuar una conversión directa de VMware a Hyper-V.
Obtenga más información sobre cómo apoyar esta solución.
Ejecutar la conversión mediante el asistente
1. Haga clic en VM y ser vicios > Inicio > Crear > Crear máquinas vir tuales > Conver tir máquina
vir tual .
2. En Asistente para conver tir máquina vir tual > Seleccionar origen , haga clic en Examinar y, en
Seleccionar origen de máquina vir tual , seleccione las máquinas virtuales de VMware que quiere
convertir.
3. En Especificar identidad de máquina vir tual , modifique el nombre y la descripción de la máquina según
sea necesario.
4. En Configuración de VM , especifique el número de procesadores y la memoria.
5. En Seleccionar host , seleccione un host de Hyper-V o Azure Stack HCI (aplicable desde VMM 2019 UR3 y
versiones posteriores) para la selección de ubicación. En Seleccionar ruta de acceso , configure la
ubicación de almacenamiento en el host para los archivos de la máquina virtual. Se mostrarán las rutas de
acceso a la máquina virtual predeterminadas.
6. En Seleccionar redes , seleccione la red lógica, la red virtual y la VLAN según corresponda. La lista coincide
con lo que haya configurado en los adaptadores físicos del host.
7. En Agregar propiedades , configure las opciones. En Resumen , revise la configuración y, si es necesario,
seleccione Iniciar la máquina vir tual después de implementarla . Luego, haga clic en Crear para iniciar
la conversión. Compruebe que se haya convertido la máquina virtual en VM y ser vicios > Inicio >
Mostrar > VM .
NOTE
La conversión de disco (de "vmdk" a "VHDX/VHD") se mejora para ser un 50 % más rápida que antes.
Los comandos de PowerShell permiten que el usuario proporcione el tipo de disco para la máquina virtual Hyper-V de
destino, que permitirá que el disco de aprovisionamiento grueso de VMware se migre como un disco dinámico de
Hyper-V o viceversa, según los requisitos.
Comandos de PowerShell
Estos son los comandos de ejemplo:
Pasos siguientes
Administrar la configuración de la máquina virtual
Instalación de un sistema operativo en una máquina
virtual en el tejido de VMM
19/08/2021 • 4 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo instalar un sistema operativo en una máquina virtual en el tejido de System
Center Virtual Machine Manager (VMM).
Después de implementar una máquina virtual en el tejido de VMM, puede instalar un sistema operativo en ella.
Revise los sistemas operativos compatibles.
Puede instalar un sistema operativo desde un DVD, un archivo de imagen ISO de la biblioteca VMM o una
instalación de red.
En el caso de la imagen ISO o el CD de sistema, cuando configure la máquina virtual, necesitará una unidad
virtual para adjuntarla a la unidad física o al archivo de imagen.
Para usar una imagen ISO, se debe agregar a la biblioteca VMM.
En el caso de una instalación de red, debe configurar un adaptador de red virtual.
NOTE
Debe adjuntar el archivo de imagen ISO compartido a la máquina virtual después de crearla. No puede adjuntar el archivo
cuando crea la máquina virtual.
Pasos siguientes
Administre la configuración de la máquina virtual.
Configuración de las opciones de las máquinas
virtuales en el tejido de proceso de VMM
19/08/2021 • 21 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar las opciones de rendimiento y disponibilidad de las máquinas
virtuales en el tejido de System Center - Virtual Machine Manager (VMM).
Las opciones incluyen la modificación de las propiedades de máquinas virtuales y la configuración de las
opciones de rendimiento, como la calidad de almacenamiento (QoS), las opciones de disponibilidad, la
limitación de recursos y el NUMA virtual.
VMM 2019 UR3 y versiones posteriores admiten el modo de tronco para VNIC de VM. El modo de tronco lo
usan las aplicaciones NFV/VNF, como firewalls virtuales, equilibradores de carga de software y puertas de
enlace virtuales, para enviar y recibir tráfico a través de distintas VLAN. Puede habilitar el modo de tronco a
través de la consola y PowerShell.
Consulte la sección siguiente para habilitar el modo de tronco a través de la consola, consulte Set-
SCVirtualNetworkAdapter and New-SCVirtualNetworkAdapter para habilitarlo a través de los commandlets de
PowerShell.
3. La red de VM que se selecciona como parte del flujo de trabajo de conexión a una red de VM también debe
convertirse en la VLAN nativa. No se puede cambiar la VLAN nativa más adelante, ya que se basa en la red
de VM que se seleccionó como parte de un flujo de trabajo de conexión a una red de VM.
Agregar un adaptador virtual con PowerShell
Puede usar PowerShell para agregar un adaptador virtual. A continuación se muestra un cmdlet de ejemplo
para efectuar la configuración:
Ejemplo 1
Agregue un vNIC:
El primer comando obtiene el objeto de máquina virtual denominado VM01 y lo almacena en la variable
$VM.
El segundo comando crea un adaptador de red virtual en VM01.
Ejemplo 2
Los siguientes comandos de PowerShell quitarán un vNIC de una máquina virtual en ejecución. Se supone que
solo hay un vNIC en la máquina virtual.
El primer comando obtiene el objeto de máquina virtual denominado VM02 y lo almacena en la variable
$VM.
El segundo comando obtiene el objeto del adaptador de red virtual en VM02 y lo almacena en la variable
$Adapter.
El último comando quita de VM02 el adaptador de red virtual almacenado en $Adapter.
Ejemplo 2
Habilitación de la memoria dinámica de una máquina virtual en ejecución.
El primer comando obtiene el objeto de máquina virtual denominado VM02 y lo almacena en la variable
$VM.
El segundo comando habilita la memoria dinámica, establece la memoria de inicio en 1024 MB y la memoria
máxima en 2048 MB.
PS C:\> $VM = Get-SCVirtualMachine -Name "VM02"
PS C:\> Set-SCVirtualMachine -VM $VM -DynamicMemoryEnabled $True -MemoryMB 1024 -DynamicMemoryMaximumMB 2048
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Lea este artículo para obtener información sobre cómo habilitar la optimización dinámica (DO) y la optimización
de energía para las máquinas virtuales en System Center - Virtual Machine Manager (VMM). En el artículo se
incluye una descripción general de las características, instrucciones para configurar BMC para optimización de
energía y, además, se describe cómo habilitar y ejecutar estas características.
NOTE
VMM 2019 y las versiones posteriores admiten la optimización dinámica para Compute y Storage. Las versiones
anteriores a VMM 2019 admiten la optimización dinámica solo para Compute. Use los siguientes procedimientos
según corresponda para la versión que está utilizando.
VMM no admite clústeres que reconocen sitios o clústeres extendidos. VMM no tiene en cuenta los dominios de error
específicos del sitio definidos por Hyper-V para el cálculo de optimización dinámica.
Optimización dinámica : mediante la optimización dinámica, VMM realiza la migración en vivo de las
máquinas y discos duros virtuales de un clúster de hosts. La migración se basa en la configuración que
especifica para mejorar el equilibrio de carga entre hosts y el almacenamiento compartido del clúster
(volumen compartido de clúster o CSV), y para corregir los problemas de ubicación de las máquinas
virtuales.
La optimización dinámica de Compute (optimización de hosts) se puede realizar en los hosts
de un clúster para optimizar el rendimiento del host mediante la migración de máquinas virtuales
entre los hosts. Los umbrales de rendimiento del host que puede establecer son: CPU y memoria.
La optimización dinámica de Storage (optimización del espacio en disco, aplicable para VMM
2019 o posterior) se puede realizar en el almacenamiento compartido del clúster (CSV, recursos
compartidos de archivos) para optimizar el espacio de almacenamiento disponible mediante la
migración de discos duros virtuales (VHD) en el almacenamiento compartido. Puede establecer el
umbral de espacio de almacenamiento libre en el almacenamiento compartido del clúster.
Optimización de energía : la optimización de energía es una característica de la optimización dinámica
que ahorra energía al apagar los hosts que no son necesarios para cumplir los requisitos de recursos
dentro de un clúster y que los vuelve a encender cuando son necesarios.
VMM admite la optimización dinámica de Compute (y en el caso de VMM 2019 o posterior, la de Compute y
Storage) y la optimización de energía en clústeres de hosts de Hyper-V. La optimización dinámica de Compute y
la optimización de energía también se admiten en los clústeres de hosts de VMware en el tejido de VMM que
admite la migración en vivo.
Antes de empezar
Tenga en cuenta la siguiente información antes de empezar a usar la optimización dinámica.
Optimización dinámica
La optimización dinámica y la optimización de energía se pueden configurar en clústeres de host que
admiten la migración en vivo.
La optimización dinámica se puede configurar en un grupo host para migrar máquinas virtuales y discos
duros virtuales dentro de los clústeres de hosts con una frecuencia y una agresividad especificadas. La
agresividad de la máquina virtual determina la cantidad de desequilibrio de carga que se requiere para
iniciar una migración durante la optimización dinámica.
La agresividad de espacio en disco determina la cantidad de espacio de almacenamiento libre por debajo del
umbral de espacio en disco que se necesita para migrar los discos duros virtuales a otro almacenamiento
compartido de clúster durante una optimización dinámica.
De forma predeterminada, las máquinas virtuales se migran cada 10 minutos con agresividad media si la
migración automática está habilitada. Cuando se configure la frecuencia y la agresividad para la optimización
dinámica, un administrador debe tener en cuenta el costo de los recursos para migraciones adicionales en
comparación con las ventajas de equilibrar la carga entre los hosts y el almacenamiento compartido de un
clúster de hosts. De forma predeterminada, un grupo host hereda la configuración de Optimización dinámica
para su grupo host primario.
Si configura la optimización dinámica en un grupo host sin un clúster no tendrá ningún efecto.
La optimización dinámica puede configurarse para clústeres con dos o más nodos. La optimización dinámica
de Storage necesitará dos o más archivos o volúmenes de almacenamiento compartido presentes en el
clúster. Si un grupo host contiene hosts independientes o clústeres de hosts que no admiten la migración en
vivo, no se realiza la optimización dinámica en esos hosts. Todos los hosts que están en modo de
mantenimiento también se excluyen de la optimización dinámica. Además, VMM solo migra máquinas
virtuales de alta disponibilidad que usan almacenamiento compartido. Si un clúster de hosts contiene
máquinas virtuales que no son de alta disponibilidad, esas máquinas virtuales no se migran durante la
Optimización dinámica.
La optimización dinámica a petición también está disponible para clústeres de hosts individuales mediante el
uso de las acciones Optimizar hosts u Optimizar espacio en disco en el área de trabajo VM y servicios. Puede
realizarse sin configurar la optimización dinámica en grupos host. Tras solicitar la optimización dinámica para
un clúster de hosts, VMM enumera las máquinas y discos duros virtuales que se migrarán para la aprobación
por parte del administrador. La acción Optimizar hosts realiza el equilibrio de carga de la máquina virtual en
los hosts de un clúster, mientras que la acción Optimizar espacio en disco migra los discos duros virtuales en
el almacenamiento compartido de un clúster.
Imparcialidad de nodo
La imparcialidad de nodo es una nueva característica en Windows Server 2016. Identifica nodos del clúster con
cargas ligeras y distribuye máquinas virtuales en esos nodos para equilibrar la carga. Esto es similar a la
optimización dinámica de VMM. Para evitar problemas potenciales de rendimiento, la optimización dinámica y
la imparcialidad de nodo no deberían funcionar juntas. Para garantizar que esto no ocurra, VMM deshabilita la
imparcialidad de nodo en todos los clústeres de un grupo host para los que la optimización dinámica se
establece como automática. Si habilita la imparcialidad de nodo fuera de la consola VMM, VMM lo desactivará la
próxima vez que se actualice la optimización dinámica. Si no quiere usar la imparcialidad de nodo, deshabilite la
optimización dinámica y, después, habilite manualmente la imparcialidad de nodo.
Optimización de energía
Para la optimización de energía, los equipos deben tener un controlador de administración de placa base
(BMC) que permita la administración fuera de banda.
La optimización de energía se asegura de que el clúster mantiene un cuórum si se produce un error en un
nodo activo. Para clústeres que se crean fuera de VMM y se agregan a VMM, la optimización de energía
requiere más de cuatro nodos. Para cada nodo o cada dos nodos adicionales de un clúster, se puede apagar
un nodo. Por ejemplo:
Se puede apagar un nodo para un clúster de cinco o seis nodos.
Se pueden apagar dos nodos para un clúster de siete u ocho nodos.
Se pueden apagar tres nodos de un clúster de nueve o diez nodos.
Cuando VMM crea un clúster, se crea un disco de cuórum y se usa ese disco como parte del modelo de
cuórum. Para los clústeres creados por VMM, se puede configurar la optimización de energía para clústeres
de más de tres nodos. Esto significa que el número de nodos que se puede apagar es el siguiente:
Se puede apagar un nodo para un clúster de cuatro o cinco nodos.
Se pueden apagar dos nodos para un clúster de seis o siete nodos.
Se pueden apagar tres nodos para un clúster de ocho o nueve nodos.
Configuración de BMC
Para los hosts con BMC que admite IMPI 1.5/2.0, DCMI 1.0 o SMASH 1.0 a través de WS-Management, puede
configurar BMC de la manera siguiente:
1. Cree una cuenta de ejecución con permisos para tener acceso a BMC en un host.
2. Haga clic en Tejido > Ser vidores > Todos los hosts > host > Propiedades > Hardware > Avanzadas >
Configuración de BMC .
3. Para habilitar la administración de VMM, seleccione Esta máquina física está configurada para la
administración fuera de banda .
4. En Este equipo es compatible con el proveedor de configuración de administración de energía
fuera de banda especificado , haga clic en el protocolo de administración compatible. Escriba la dirección
IP del BMC y acepte el puerto predeterminado que VMM ofrece. Seleccione la cuenta de ejecución y haga clic
en Aceptar .
NOTE
En VMM 2019 y versiones posteriores, los valores de intensidad de la máquina virtual se reemplazan de escala
baja, media o alta a escala de enteros de 1 a 5.
1 es el grado de intensidad más bajo. 5 es el más alto.
NOTE
Si se produce un error de coincidencia en los niveles de advertencia de espacio de disco entre los grupos host que tienen
el mismo recurso compartido de archivos, eso puede dar lugar a varias migraciones hacia ese recurso compartido de
archivos y desde este, y puede afectar al rendimiento de la optimización dinámica del almacenamiento. Se recomienda que
no haga un recurso compartido de archivos a través de diferentes grupos host en los que esté habilitada la optimización
dinámica de almacenamiento.
NOTE
Si los discos duros virtuales se migran de un tipo de almacenamiento a otro (ejemplo: desde un CSV a un recurso
compartido de archivos NAS), la migración de almacenamiento será lenta. Si la optimización de almacenamiento no
devuelve una lista de los discos duros virtuales que se van a migrar a pesar de que se cumplan los criterios de umbral y
agresividad: - Compruebe el HostVolumeID mediante el cmdlet Get-SCStorageVolume. Si HostVolumeID devuelve Null
para el volumen, actualice la máquina virtual y vuelva a realizar la optimización dinámica de almacenamiento. -
Compruebe el valor de DiskSpacePlacementLevel del grupo de host mediante el cmdlet Get-SCHostReserve. Establezca un
valor de DiskSpacePlacementLevel igual que el valor de espacio en disco que se estableció en la configuración de Recurso
en reserva en el host del asistente de optimización dinámica.
Pasos siguientes
Obtenga información sobre el aprovisionamiento de máquinas virtuales.
Crear plantillas de máquina virtual con VMM y
Windows Azure Pack
21/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Como proveedor de hospedaje, puede usar System Center - Virtual Machine Manager (VMM) junto con
Windows Azure Pack para aumentar las características que ofrece a los inquilinos. Para ayudar a los inquilinos a
crear máquinas virtuales con aplicaciones y sistemas operativos específicos ya instalados, puede crear plantillas
de rol de máquina virtual. Los inquilinos pueden usar estas plantillas para crear máquinas virtuales de forma
local y entornos de hospedaje de proveedor de servicios.
Antes de empezar
Obtenga información sobre Windows Azure Pack
Obtenga información sobre cómo VMM administra los recursos en la biblioteca VMM
Get-CloudResourceExtension
Especificar etiquetas
Los elementos de la galería de roles de máquina virtual especifican etiquetas que deben incluirse en un disco
del sistema operativo para que esté disponible como una opción cuando un usuario aprovisione la máquina
virtual. El archivo Léame del recurso de galería debe incluir las etiquetas que requiera.
1. Cuando cree el disco duro, especifique las etiquetas necesarias mediante PowerShell.
2. En el ejemplo siguiente se muestra cómo establecer la etiqueta "WindowsServer2012R1" para el disco duro
virtual MyVirtualHardDisk. El cmdlet usa los valores en el archivo Léame.
Pasos siguientes
Obtenga información sobre el aprovisionamiento de máquinas virtuales.
Migración de máquinas virtuales: información
general
19/08/2021 • 8 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información general sobre la migración de máquinas virtuales en tejido de
System Center - Virtual Machine Manager (VMM).
Puede migrar máquinas virtuales y almacenamiento administrados en el tejido de VMM. VMM selecciona
automáticamente el tipo de transferencia que se usará para la migración. Cuando realiza una migración en la
consola de VMM mediante el Asistente para migrar VM, el tipo de migración que se usará se muestra en la
columna Tipo de transferencia . En la tabla siguiente se resumen los tipos de migración admitidos.
T IP O USO DETA L L ES
Migración de red Realiza una copia de red de los datos Es el tipo de migración más lento. El
de máquinas virtuales mediante BITS. tiempo de inactividad es directamente
proporcional al tamaño de la
transferencia de datos.
Migración rápida de Se usa para mover el almacenamiento Los discos virtuales de una máquina
almacenamiento de VM de una ubicación a otra. Por virtual en ejecución se pueden migrar
ejemplo, puede mover el independientemente de los protocolos
almacenamiento de una máquina de almacenamiento (SCSI, Canal de
virtual desde una SAN de canal de fibra) o los tipos de almacenamiento
fibra a una SAN iSCSI. (local, DAS, SAN).
Migración SAN Usa la transferencia de SAN para Para la migración de SAN, los archivos
migrar máquinas virtuales y máquinas de una máquina virtual no se copian
virtuales de alta disponibilidad, dentro de un servidor a otro, por lo que se
y fuera de un clúster. Se puede usar minimiza el tiempo de inactividad. La
cuando los hosts de origen y destino migración de SAN se puede usar para
tienen acceso a la misma copiar una máquina virtual desde un
infraestructura de almacenamiento host a otro, o copiar una máquina
(LUN) y el almacenamiento se puede virtual a o desde la biblioteca.
transferir desde un host a otro.
Cuando se migra una máquina virtual
hacia un clúster usando una
transferencia de SAN, VMM
comprueba que todos los nodos del
clúster pueden ver el LUN y
automáticamente crea un recurso de
disco de clúster para el LUN.
Migración en vivo
El uso de la migración en vivo proporciona una serie de ventajas:
Mayor flexibilidad : las características de migración en vivo pueden ayudar a simplificar el traslado de
máquinas virtuales entre hosts y clústeres. Por lo tanto, resulta más fácil administrar un centro de datos
dinámico.
Facilidad de mantenimiento : la migración en vivo alivia la necesidad de dejar sin conexión clústeres de
hosts y hosts independientes para fines de mantenimiento y migración, lo que ayuda a evitar el tiempo de
inactividad. Con la capacidad de realizar mantenimiento y migraciones de manera simultánea, los marcos de
tiempo de migración pueden acortarse, dependiendo del tiempo necesario para realizar la migración en vivo.
Además, se simplifica el proceso de planeamiento para la movilidad de Hyper-V.
Mejor utilización del hardware : se puede optimizar la distribución de las máquinas virtuales en toda la
infraestructura. Las máquinas virtuales y el almacenamiento pueden transferirse a servidores independientes
y clústeres con capacidad de reserva, sin interrumpir la disponibilidad. El consumo de energía se reduce, ya
que las máquinas se pueden mover entre hosts y los hosts se pueden apagar para ahorra energía.
Características de clústeres de conmutación por error : VMM aprovecha las características de clústeres
de conmutación por error que se introdujeron en Windows Server 2012. Estas características incluyen API
adicionales para migrar máquinas virtuales entre nodos del clúster y la funcionalidad de
conexión/desconexión mejorada que permite la migración de máquinas virtuales dentro y fuera de los
clústeres de conmutación por error sin tiempo de inactividad. VMM admite los siguientes tipos de migración
en vivo:
Compatibilidad con migración en vivo
VMM admite los siguientes tipos de migración en vivo:
Migración en vivo de máquinas independientes : puede ejecutar la migración en vivo entre dos
máquinas independientes que no están en un clúster.
Migración en vivo dentro de un clúster : puede ejecutar una migración en vivo entre nodos del mismo
clúster.
Migración en vivo entre nodos de diferentes clústeres : puede migrar entre nodos de diferentes
clústeres.
Migración en vivo de almacenamiento de VM : puede migrar el almacenamiento para actualizar el
almacenamiento físico disponible en Hyper-V, o para mitigar los cuellos de botella en el rendimiento del
almacenamiento. También puede usar la migración de almacenamiento para mover, reparar o actualizar
recursos de almacenamiento, o para la migración de una máquina virtual independiente o de un clúster. El
almacenamiento puede agregarse a un equipo independiente o a un clúster de Hyper-V. Las máquinas
virtuales se pueden mover al nuevo almacenamiento mientras siguen ejecutándose.
VSM en vivo : puede usar la migración de sistemas en vivo (VSM en vivo) para migrar máquinas virtuales y
su almacenamiento en una única acción.
Migración en vivo simultánea : Puede realizar múltiples migraciones en vivo simultáneas de máquinas
virtuales y almacenamiento. El límite simultáneo puede configurarse manualmente. Las migraciones en vivo
simultáneas que excedan el límite se pondrán en cola.
VMM inspecciona y valida las opciones de configuración de un host de destino antes de que se inicie la
migración de un host de origen.
Matriz de compatibilidad de migración de máquinas virtuales en vivo
O RIGEN DEST IN O : IN DEP EN DIEN T E DEST IN O : C L ÚST ER
La máquina virtual se
promoverá a alta
disponibilidad.
Pasos siguientes
Migrar una máquina virtual
Migrar el almacenamiento
Ejecutar una migración en vivo
Migrar una máquina virtual en el tejido de VMM
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo migrar una máquina virtual en System Center - Virtual Machine Manager
(VMM).
Para llevar a cabo una migración, puede realizar cualquiera de las siguientes acciones:
Ejecutar el Asistente para migrar VM : en este asistente puede seleccionar un host de máquina virtual
de destino para la migración, especificar la ruta de acceso que almacena los archivos de máquina virtual,
conectar la máquina virtual a cualquiera de las redes virtuales que se encuentran en el host seleccionado
y, si hay disponible una transferencia de red de área de almacenamiento (SAN), seleccionar una
transferencia de red en su lugar.
Arrastrar la máquina vir tual a un host : al arrastrar una máquina virtual a un host, VMM usa la
selección de ubicación automática para colocar la máquina virtual en el volumen más apropiado del host.
La colocación se basa en el espacio disponible.
Arrastrar la máquina vir tual a un grupo host : cuando se arrastra la máquina virtual a un grupo
host, VMM usa la selección de ubicación automática para colocar la máquina virtual en el host más
adecuado que haya disponible en el grupo host, en función de los requisitos de la máquina virtual y de
las clasificaciones de host. La máquina virtual se coloca en el volumen más adecuado del host. La
colocación se basa en el espacio disponible. Durante la selección de ubicación automática, el proceso de
clasificación de host identifica el volumen más apropiado en cada host.
Tenga en cuenta lo siguiente antes de comenzar la migración:
Si hay disponible una SAN correctamente configurada, VMM usa automáticamente la SAN para realizar las
transferencias. Sin embargo, si usa el Asistente para migrar máquina virtual para realizar una transferencia,
puede invalidar el uso de SAN y realizar una transferencia de red de área local (LAN).
Si migró una máquina virtual conectada al almacenamiento SAN, la máquina virtual no puede volver a
conectarse a la SAN a menos que el host de destino también tenga acceso a esa SAN. VMM no puede
detectar si una máquina virtual está conectada a una SAN o si el host de destino está conectado a la misma
SAN, por lo que no puede proporcionar una advertencia. Debe asegurarse de que el nuevo host esté
configurado para permitir que la máquina virtual se vuelva a conectar a la SAN antes de migrar la máquina
virtual.
Para migrar máquinas virtuales entre los hosts con procesadores diferentes, asegúrese de que realiza esta
excepción en la máquina virtual Propiedades > Procesador seleccionando Permitir migración a un
host de máquina vir tual con una versión de procesador diferente . En caso contrario, se produce un
error en la migración.
Si cambia los permisos para una máquina virtual mediante el sistema de archivos y después migra la
máquina virtual, VMM vuelve a crear la lista de control de acceso (ACL). Todos los cambios realizados fuera
de VMM se perderán.
Si intenta migrar una máquina virtual de un host de Hyper-V después de eliminar un punto de control de la
máquina virtual, podría producirse un error en la migración. Si intenta realizar una migración antes de que
Hyper-V haya terminado de eliminar el punto de control, se produce un error en la migración y debe reparar
la máquina virtual mediante la opción Deshacer . Para evitar este problema, compruebe que se ha
eliminado el punto de control o espere a que Hyper-V lo elimine. Compruebe la eliminación de la manera
siguiente:
1. En Máquinas vir tuales , haga clic en la máquina virtual > Acciones > Detener .
2. En el Administrador de Hyper-V, Estado > Combinación en curso indica que el punto de control no
se ha eliminado. Espere a que termine la operación para migrar la máquina virtual.
NOTE
La característica de copia rápida de archivos no se usa al migrar una máquina virtual del host a la
biblioteca.
3. En la página Seleccionar ruta de acceso , acepte la ruta predeterminada o haga clic en Examinar y
vaya a la carpeta en la que quiere almacenar los archivos de configuración para la máquina virtual y,
después, haga clic en Aceptar . Tenga en cuenta lo siguiente:
Si el host de destino forma parte de un clúster de conmutación por error que tiene volúmenes
compartidos de clúster (CSV) habilitados, puede almacenar la máquina virtual en unidades lógicas
CSV y en un número de unidad lógica (LUN) asociado que ya esté siendo usado por otras máquinas
virtuales de alta disponibilidad (HAVM). Con CSV, varias HAVM pueden compartir el mismo LUN. La
migración de una HAVM no afecta a otros usuarios que comparten el mismo LUN. VMM también
admite varias HAVM por LUN para los entornos de VMware configurados con LUN VMFS de VMware.
Si seleccionó una ruta de acceso distinta de la ruta predeterminada de la máquina virtual y quiere
almacenar otras máquinas virtuales en dicha ruta de acceso, active la casilla Agregar esta ruta de
acceso a la lista de rutas predeterminadas del host para agregarla a las rutas de acceso
predeterminadas del host.
Si usa una transferencia de red, tiene la opción de especificar ubicaciones de almacenamiento
separadas para cada archivo de disco duro virtual (.vhd o .vhdx) para la máquina virtual. De forma
predeterminada, todos los archivos .vhd o vhdx se almacenan en la misma ubicación especificada para
la máquina virtual.
Si las transferencias SAN están habilitadas para esta implementación, la máquina virtual se transfiere
al host a través de la red SAN de manera predeterminada. Si no quiere realizar una transferencia SAN,
seleccione Transferir a través de la red incluso si está disponible una transferencia SAN . Si
las transferencias SAN no están disponibles para esta implementación, esa opción no está disponible.
4. En Seleccionar redes , modifique las redes y después conéctelas a Ninguno o a cualquiera de las redes
virtuales que se encontraron en el host seleccionado. En el área de redes se enumeran todos los
adaptadores de red virtual que están conectados actualmente a la máquina virtual. Los adaptadores de
red tienen como configuración predeterminada Ninguno (si seleccionó Ninguno en la configuración de
hardware) o la red virtual más adecuada en función de las reglas de coincidencia de la red.
5. En Seleccionar SAN vir tuales , seleccione las redes SAN virtuales aplicables en la lista desplegable
para cada HBA virtual enumerado. A continuación, haga clic en Siguiente .
6. En Resumen , revise su configuración. Para iniciar la máquina virtual después de su implementación,
haga clic en Iniciar la máquina vir tual inmediatamente tras implementarla en el host . Haga clic
en Ver script para ver los cmdlets de Windows PowerShell que realizan la migración.
7. Para iniciar la migración, haga clic en Mover . Revise el progreso en Trabajos .
Pasos siguientes
Migrar el almacenamiento
Ejecutar una migración en vivo
Migrar almacenamiento en el tejido de VMM
19/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo migrar el almacenamiento en el tejido de System Center Virtual Machine
Manager (VMM).
La migración de almacenamiento le permite mover archivos de VM desde una ubicación de almacenamiento a
otra en el mismo host de VM. Si se ejecuta la máquina virtual, puede realizar una migración rápida de
almacenamiento, lo que hace que el servicio se interrumpa un poco o no se interrumpa para los usuarios de la
máquina virtual. Si la máquina virtual tiene más de un disco duro virtual, puede especificar una ubicación
diferente para cada archivo de disco duro virtual (.vhd o .vhdx).
Lea este artículo Si desea ejecutar una migración en vivo de almacenamiento de VM entre dos ubicaciones en
un host independiente.
Pasos siguientes
Ejecutar una migración en vivo
Ejecutar una migración en vivo en el tejido de VMM
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Este artículo describe cómo ejecutar una migración en vivo de máquinas virtuales (VM) o el almacenamiento de
VM en el tejido de System Center - Virtual Machine Manager (VMM). VMM ofrece compatibilidad con la
migración en vivo entre hosts de Hyper-V independientes o hosts de clúster que tengan habilitada la migración
en vivo. Obtenga más información en.
NOTE
Al ejecutar la migración en vivo en máquinas virtuales de una versión de clúster anterior a una versión más reciente, si no
se actualiza el valor Msvm_CompatibilityVector, se bloqueará la migración dentro del clúster nuevo.
Para corregir este problema, reinicie la máquina virtual. El reinicio de la máquina virtual actualiza los valores
Msvm_CompatibilityVector según la versión nueva del clúster.
NOTE
El tipo de transferencia en vivo (VSM) está disponible para todos los nodos del clúster de destino configurados
para conectarse a un recurso compartido de SMB 3.0 distinto desde aquel en el que la máquina virtual se creó
originalmente.
Puede ejecutar una migración en vivo de almacenamiento de VM entre ubicaciones en hosts independientes.
Puede mover a otra ubicación toda la máquina virtual, que incluye los discos duros virtuales (VHD) e
información de configuración, o mover solo VHD específicos.
1. En VM y ser vicios > Todos los Hosts , haga clic en el host independiente donde se encuentra la VM.
2. En VM , haga clic en la VM en ejecución para la que desea migrar el almacenamiento. Inicie la máquina si
no está en ejecución.
3. En Máquina vir tual , haga clic en Migrar almacenamiento para iniciar el Asistente para migrar
almacenamiento.
4. En Seleccionar ruta de acceso > Ubicación de almacenamiento , haga clic en una de las
ubicaciones de almacenamiento predeterminadas en el host. También puede hacer clic en Examinar para
ver todos los posibles destinos de almacenamiento. Haga clic en el recurso compartido de archivos SMB
3.0 de destino o ubicación en el disco duro local y, a continuación, haga clic en Aceptar .
Si especifica un recurso compartido de archivos SMB 3.0 en la lista Ubicación de almacenamiento ,
asegúrese de usar el nombre de dominio completo (FQDN) del servidor de destino en la ruta de acceso
del recurso compartido. Por ejemplo, en lugar de \\fileserver1\smbshare, use
\\fileserver1.contoso.com\smbshare.
5. También puede seleccionar Agregar esta ruta de acceso a la lista de ubicaciones de
almacenamiento predeterminadas del host y luego hacer clic en Siguiente .
6. En la página Resumen , haga clic en Mover . Realice un seguimiento del progreso en Trabajos .
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
System Center - Virtual Machine Manager (VMM) permite administrar roles y permisos. VMM proporciona lo
siguiente:
Seguridad basada en roles : los roles especifican lo que los usuarios pueden hacer en el entorno de VMM.
Los roles constan de un perfil que define un conjunto de operaciones disponibles para el rol, un ámbito que
define el conjunto de objetos en el que puede funcionar el rol y una lista de miembros que define las cuentas
de usuario de Active Directory y los grupos de seguridad asignados al rol.
Cuentas de ejecución : las cuentas de ejecución actúan como contenedores para las credenciales
almacenadas que se usan para ejecutar tareas y procesos de VMM.
Rol de administrador Los miembros de este rol pueden Los administradores son los únicos
realizar todas las acciones que pueden agregar un servidor WSUS
administrativas en todos los objetos a VMM para habilitar las
que administra VMM. actualizaciones del tejido de VMM a
través de VMM.
Administrador del tejido Los miembros de este rol pueden Los administradores delegados no
(administrador delegado) realizar todas las tareas administrativas pueden modificar la configuración de
dentro de sus grupos host, nubes y VMM, ni agregar o quitar miembros
servidores de biblioteca asignados. del rol de usuario Administradores, ni
agregar servidores WSUS.
Administrador de solo lectura Los miembros de este rol pueden ver El administrador de solo lectura
las propiedades, el estado y el estado también puede ver las cuentas de
del trabajo de los objetos de sus ejecución que los administradores o los
grupos host, nubes y servidores de administradores delegados hayan
biblioteca asignados, pero no pueden especificado para el rol de usuario
modificar los objetos. Administrador de solo lectura.
RO L DE USUA RIO DE VM M P ERM ISO S DETA L L ES
Administrador de inquilinos Los miembros de este rol pueden Los administradores de inquilinos
administrar usuarios de autoservicio y pueden crear, implementar y
redes de VM. administrar sus propios servicios y
máquinas virtuales a través de la
consola VMM o un portal web.
Administrador de aplicaciones (usuario Los miembros de este rol pueden Pueden administrar VMM mediante la
de autoservicio) crear, implementar y administrar sus consola VMM.
propias máquinas virtuales y servicios.
Cuentas de ejecución
Hay distintos tipos de cuentas de ejecución:
Las cuentas de equipo host se usan para interactuar con los servidores de virtualización.
Las cuentas de BMC se usan para comunicarse con BMC en hosts para la administración fuera de banda o
la optimización de energía.
Las cuentas externas se usan para la comunicación con aplicaciones externas, como Operations Manager.
Las cuentas de dispositivo de red se usan para conectarse con equilibradores de carga de red.
Las cuentas de perfil se usan en perfiles de ejecución al realizar la implementación en un servicio VMM o
al crear perfiles.
Observe lo siguiente:
VMM usa la API de protección de datos de Windows (DPAPI) para proporcionar servicios de protección de
datos a nivel de sistema operativo durante el almacenamiento y la recuperación de las credenciales de la
cuenta de ejecución. DPAPI es un servicio de protección de datos mediante contraseña que utiliza rutinas
criptográficas (el algoritmo seguro Triple DES, con claves seguras) para contrarrestar el riesgo que supone la
protección de datos mediante contraseña. Más información.
Al instalar VMM, puede configurar VMM para usar la administración de claves distribuida para almacenar
claves de cifrado en Active Directory.
Puede configurar cuentas de ejecución antes de empezar la administración de VMM o bien si las necesita
para acciones específicas.
Pasos siguientes
Configurar roles de usuario
Configurar cuentas de ejecución
Configurar roles de usuario en VMM
21/08/2021 • 3 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar los roles de usuario de System Center - Virtual Machine Manager
(VMM).
Antes de empezar
Obtenga más información acerca de los roles de usuario.
Asegúrese de que tiene los permisos adecuados para crear el rol o agregar usuarios a él.
Rol de administrador : los administradores pueden agregar y quitar usuarios
Rol de administrador delegado : los administradores pueden crear el rol. Los administradores
delegados pueden crear roles de administrador delegado que incluyen un subconjunto del ámbito,
servidores de biblioteca y cuentas de ejecución.
Rol de administrador de solo lectura : los administradores pueden crear el rol. Los
administradores delegados pueden crear roles de administrador de solo lectura que incluyen un
subconjunto del ámbito, servidores de biblioteca y cuentas de ejecución.
Rol de administrador de máquina vir tual (aplicable a VMM 2019 y versiones posteriores): los
administradores pueden crear el rol. Los administradores delegados pueden crear roles de
administrador de máquina virtual que incluyen un ámbito completo o un subconjunto del ámbito,
servidores de biblioteca y cuentas de ejecución.
Rol de administrador de inquilino : los administradores y administradores delegados pueden
crear este rol.
El rol de administrador se crea de forma predeterminada cuando instala VMM. El usuario que realiza la
instalación y todos los usuarios de dominio del grupo de administradores locales del servidor se agregan
al rol de administrador. Puede agregar o quitar miembros en las propiedades del rol.
Crear un rol
1. Haga clic en Configuración > Crear > Crear rol de usuario .
2. En el Asistente para crear roles de usuario , escriba el nombre y, si lo desea, una descripción del rol.
Después, haga clic en Siguiente .
3. En la página Perfil , seleccione el rol y, a continuación, haga clic en Siguiente .
4. En Miembros , haga clic en Agregar para agregar cuentas de usuario y grupos de Active Directory al rol
de usuario. Agregue los miembros en Seleccionar usuarios, equipos o grupos y luego haga clic en
Siguiente .
5. En Ámbito , seleccione las nubes privadas o grupos de hosts que pueden utilizar los miembros del rol. A
continuación, haga clic en Siguiente .
6. Si aparecen una o varias páginas Cuotas (en función de que haya seleccionado nubes privadas en la
página anterior del asistente), revise y especifique cuotas según sea necesario para cada nube privada. Si
no, continúe con el paso siguiente. Los administradores de solo lectura únicamente pueden ver
elementos en este ámbito definido.
Si quiere establecer cuotas para el uso conjunto de todos los miembros de este rol de usuario, use la lista
superior. Si quiere establecer cuotas para cada miembro individual de este rol de usuario, use la lista
inferior. De forma predeterminada, las cuotas son ilimitadas. Para crear un límite, desactive la casilla
correspondiente en Usar máximo y luego, en Cuota asignada , seleccione un límite. Después de
completar toda la configuración, haga clic en Siguiente .
7. Si aparece la página Ser vidores de biblioteca , agregue uno o más servidores de biblioteca.
8. En Redes , haga clic en Agregar para agregar las redes de VM que pueden utilizar los miembros de este
rol. A continuación, haga clic en Siguiente .
9. En Recursos , haga clic en Agregar para agregar los recursos. En Especificar ruta de acceso a datos
de rol de usuario , haga clic en Examinar para especificar la ruta de acceso de la biblioteca que los
miembros de este rol de usuario pueden usar. A continuación, haga clic en Siguiente .
10. En la página Permisos , seleccione acciones globales y las acciones específicas de la nube que quiere que
los miembros de este rol puedan realizar. Haga clic en Siguiente .
11. Si aparece la página Cuentas de ejecución , agregue las cuentas de ejecución que quiere que los
miembros de este rol puedan usar. Si no, continúe con el paso siguiente.
12. Si aparece la página Cuotas para redes de VM , revise y especifique cuotas para limitar el número de
redes de VM que los miembros de este rol de usuario pueden crear. Si no, continúe con el paso siguiente.
Si quiere limitar el número total de redes de máquina virtual que todos los miembros de este rol de
usuario pueden crear, utilice el valor superior. Si quiere limitar el número de redes de máquina virtual que
cada miembro individual de este rol de usuario puede crear, utilice el valor inferior.
13. En la página Resumen , revise los valores de configuración y haga clic en Finalizar para crear el rol.
Compruebe que el rol aparece en Configuración > Seguridad > Roles de usuario .
Crear cuentas de ejecución en VMM
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo crear y administrar cuentas de ejecución en el servidor de System Center -
Virtual Machine Manager (VMM).
Las cuentas de ejecución son contenedores para conjuntos de credenciales almacenadas. En VMM, se puede
proporcionar una cuenta de ejecución para cualquier proceso que requiera credenciales. Los administradores y
los administradores delegados pueden crear cuentas de ejecución. Obtenga más información sobre los distintos
tipos de cuentas de ejecución.
1. Haga clic en Configuración y, en Crear , haga clic en Crear cuenta de ejecución .
2. En Crear cuenta de ejecución , especifique el nombre y una descripción opcional para identificar las
credenciales en VMM.
3. En Nombre de usuario y Contraseña , especifique las credenciales. Las credenciales pueden ser una
cuenta válida de usuario o grupo de Active Directory o bien credenciales locales.
4. Desactive Validar credenciales de dominio si no lo necesita y haga clic en Aceptar para crear la cuenta
de ejecución.
Configurar la característica de autoservicio en VMM
19/08/2021 • 12 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo configurar la característica de autoservicio en System Center - Virtual
Machine Manager (VMM).
VMM ofrece una serie de opciones para los usuarios de autoservicio:
Máquinas vir tuales o ser vicios : los usuarios pueden implementar sus máquinas virtuales y servicios en
nubes privadas. Pueden asignarse nubes privadas a varios roles de usuario de autoservicio. Las cuotas de
nivel de rol para cada rol de usuario de autoservicio con la nube privada en el ámbito se usan para asignar la
capacidad de proceso y almacenamiento en la nube. Las cuotas de nivel de miembro establecen límites
individuales para los miembros del rol de usuario de autoservicio.
Discos duros vir tuales : los usuarios pueden implementar máquinas virtuales desde los discos duros
virtuales, así como plantillas.
Plantillas o perfiles : los usuarios pueden crear sus propias plantillas y perfiles. La acción Crear para un rol
de usuario de autoservicio proporciona estos derechos de creación para crear perfiles de hardware, perfiles
de sistema operativo invitado, perfiles de aplicación, perfiles de SQL Server, plantillas de máquina virtual y
plantillas de servicio. Tenga en cuenta que un usuario con el rol de autoservicio puede crear estos recursos y
compartirlos con otros miembros del rol de usuario de autoservicio.
Los usuarios de autoservicio usan la consola VMM (o PowerShell) para crear y administrar máquinas virtuales,
servicios, etc. En la consola VMM, los usuarios de autoservicio pueden ver el estado, uso de recursos, trabajos y
sugerencias PRO (si están habilitadas) de sus propias máquinas virtuales y servicios. Pueden ver el uso de cuota
y capacidad disponible en sus nubes privadas. No pueden ver grupos host, hosts, recursos compartidos y
servidores de biblioteca, o valores de configuración de red y almacenamiento.
Configure la característica de autoservicio en VMM de la siguiente manera:
1. Cree un rol de usuario de autoservicio. Especifique las acciones que puede realizar el rol, asígnele recursos y
configure cuentas de ejecución que los usuarios de autoservicio puedan usar al interactuar con VMM.
2. Configure la biblioteca de VMM. Asigne un recurso compartido de biblioteca en donde residirán los recursos
disponibles para los usuarios de autoservicio. Configure también un recurso compartido para que los
usuarios de autoservicio puedan compartir sus recursos con otros usuarios.
Antes de empezar
Todos estos procedimientos los debe llevar a cabo un administrador de VMM. Los administradores delegados
pueden agregar recursos compartidos de biblioteca en los servidores de biblioteca que estén en el ámbito de su
rol de usuario, pueden configurar recursos compartidos de biblioteca de solo lectura en las nubes privadas que
hayan creado y pueden configurar las rutas de acceso a datos de usuario en los roles de usuario de autoservicio
que hayan creado. Solo los miembros del grupo de administradores locales pueden conceder permisos de
acceso en sus rutas de acceso a datos de usuario.
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo trabajar con System Center - Virtual Machine Manager (VMM) como usuario
de autoservicio.
Los usuarios de autoservicio pueden interactuar con VMM para implementar máquinas virtuales y servicios en
nubes privadas. En función de los permisos que tenga, puede implementar máquinas virtuales desde discos
duros virtuales y plantillas, y crear y compartir sus propias plantillas y perfiles. Para interactuar con VMM, use la
consola VMM (o PowerShell).
Pasos siguientes
Aprovisionar las máquinas virtuales
Supervisar VMM
19/08/2021 • 5 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Configure la supervisión e informes en System Center - Virtual Machine Manager (VMM) de la siguiente
manera:
Trabajos de VMM : en la consola VMM, puede supervisar el estado de los procesos y operaciones de los
trabajos de VMM.
Super visión en Operations Manager : para supervisar el estado de los servidores VMM y el tejido VMM,
integra VMM con System Center Operations Manager.
Informes en Operations Manager : después de que VMM se integra en Operations Manager, puede crear
y ver informes de VMM.
PA N EL DETA L L ES
Panel del host de VMM Supervisa el estado de los hosts de virtualización que se han
detectado en el tejido VMM.
Panel de mantenimiento del tejido Supervisa el estado de las nubes privadas de VMM.
REP O RT DETA L L ES
Utilización de la capacidad Uso de los datos para hosts de máquina virtual y otros
objetos.
Previsión de grupos host Predice la actividad del host basándose en el historial de uso
de CPU, memoria, E/S de disco, E/S de red y espacio en
disco.
Aumento de uso del host Muestra cambio porcentual del uso de recursos y el número
de máquinas virtuales que se ejecutan en los hosts
seleccionados durante un periodo especificado.
Candidatos para vir tualización Ayuda a identificar los equipos físicos que son buenos
candidatos para convertirse en máquinas virtuales.
Ver informes
Puede ver informes en el área de trabajo Informes de System Center Operations Manager, o bien escribiendo la
siguiente dirección en un explorador web: http://ReportingServerName:port/reports . Opcionalmente, puede
especificar “https” en lugar de http.
ReportingServerName es el nombre del servidor de informes de Operations Manager.
port es 80 para HTTP y 443 para HTTPS
reports hace referencia al directorio virtual del servidor de informes, de manera predeterminada: repor ts
Integrar VMM con Operations Manager para la
supervisión e informes
19/08/2021 • 7 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se describe cómo integrar System Center - Virtual Machine Manager (VMM) con System Center
Operations Manager para supervisar el estado de los hosts de virtualización, las máquinas virtuales y otros
recursos en el tejido de proceso de VMM.
Operations Manager supervisa el servidor VMM y todos los hosts y las máquinas virtuales del tejido de
VMM.
Un grupo de administración de Operations Manager puede supervisar varias instancias de VMM. El tejido de
VMM solo puede supervisarlo un único grupo de administración de Operations Manager.
El panel de estado del tejido se importa a Operations Manager con los módulos de administración de VMM.
Muestra información general detallada del estado de las nubes privadas y del tejido de VMM. Puede vincular
a otros paneles para aumentar los detalles de la supervisión de almacenamiento y red.
Resumen de implementación
Configure Operations Manager con VMM de la manera siguiente:
1. Verifique los requisitos previos.
2. Instale la consola de Operations Manager en el servidor VMM de forma que pueda supervisar VMM
desde el servidor.
3. Instale agentes de Operations Manager en el servidor de administración de VMM y todos los hosts bajo
la administración de VMM.
4. Busque el módulo de administración más reciente.
5. Ejecute el asistente de integración para integrar VMM y Operations Manager. El asistente realiza las
siguientes tareas:
Importe los módulos de administración de VMM en Operations Manager.
De manera opcional, habilite Optimización de rendimiento y recursos (PRO). Se proporciona
información de PRO mediante Operations Manager, y puede ser VMM para optimizar el rendimiento.
Puede asignar alertas específicas de Operations Manager para acciones correctivas en VMM. Por
ejemplo, puede migrar máquinas virtuales a un host diferente después de un problema de hardware.
Además, con PRO habilitado, Operations Manager puede detectar problemas de recursos o errores de
hardware en la infraestructura de virtualización.
De manera opcional, habilita el modo de mantenimiento. VMM puede colocar hosts en modo de
mantenimiento para el servicio. Cuando un host se encuentra en modo de mantenimiento, VMM usa
la migración en vivo para mover máquinas virtuales a otra ubicación, y no coloca nuevas máquinas
virtuales en el host. Si el modo de mantenimiento está habilitado para la supervisión de Operations
Manager, cuando un host se coloca en modo de mantenimiento en VMM, Operations Manager
también lo coloca en el mismo modo. En el modo de mantenimiento, el agente de Operations
Manager suprime alertas, notificaciones y cambios de estado, de forma que el host no se supervise
mientras las actividades de mantenimiento de software y hardware habituales están en curso.
Habilita el soporte para SQL Server Analysis Services (SSAS) y las funcionalidades de informes
proporcionadas por SSAS.
Antes de empezar
NOTE
Asegúrese de que usa una versión compatible de Operations Manager (que se ejecuta en Systems Center 2016 o en una
versión posterior).
NOTE
Asegúrese de que usa una versión compatible de Operations Manager (que se ejecuta en Systems Center 2019 o en una
versión posterior).
Operations Manager debe usar SQL Server 2012 SP2, SQL Server 2014 o SQL Server 2016 con Reporting
Services habilitado. Para utilizar los informes de previsión, debe instalarse SQL Server Analysis Services en el
servidor de informes de Operations Manager. El nombre de la instancia de SSAS debe coincidir con SQL
Server Reporting Services (MSSQLSERVER).
La versión de la consola del operador de Operations Manager que está instalada en el servidor de
administración VMM debe coincidir con la versión de Operations Manager con la que pretende realizar la
integración. La versión del agente Operations Manager debe ser compatible con la versión de Operations
Manager.
Asegúrese de que la versión de Windows PowerShell que está en todos los servidores de administración de
Operations Manager es la versión más reciente que se admite por esa versión de Operations Manager. Para
determinar qué versión de Windows PowerShell está en un servidor, ejecute Get-Host | Select-Object
Version .
Asegúrese de que el puerto 5724 está abierto entre los servidores de VMM y Operations Manager.
Necesita permisos de administrador de VMM para ejecutar el asistente de integración.
Los módulos de supervisión de VMM admiten un máximo de 400 hosts con hasta 8000 máquinas virtuales.
NOTE
Si ya se ha establecido la conexión con Operations Manager, al hacer clic en Propiedades se abre el cuadro de
diálogo Configuración de Operations Manager . Si aparece este cuadro de diálogo y no describe la conexión
correcta, quite la conexión actual antes de escribir la información correcta.
Pasos siguientes
Ejecutar informes de VMM en Operations Manager
Agregar una suscripción de Azure en VMM
19/08/2021 • 6 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
Puede agregar suscripciones de Microsoft Azure a System Center - Virtual Machine Manager (VMM) y llevar a
cabo acciones básicas en las instancias de Azure de estas suscripciones.
En cada suscripción de Azure que agregue, puede usar una consola para ver todas las instancias de rol de
todos los grupos de distribución de esa suscripción.
Si ya administra las máquinas virtuales locales en VMM, puede usar esta característica para llevar a cabo
algunas acciones muy básicas en instancias de Azure sin salir de la consola VMM. Puede:
Agregue y quite suscripciones de Azure en la consola VMM.
Obtenga una vista de lista de información sobre instancias de rol en suscripciones de implementación.
Las instancias pueden actualizarse manualmente.
Realice acciones básicas en las instancias, incluidas iniciar, detener, apagar y reiniciar.
Conectar a través de RDP
Esta característica no está diseñada para proporcionar una paridad de características con Azure Portal.
Proporciona un pequeño subconjunto de las características para simplificar la administración. No puede
administrar la suscripción de Azure, implementar instancias, administrar Azure Storage y Azure Networks,
migrar máquinas virtuales locales a Azure o ver el panel y los resúmenes de supervisión de rendimiento.
La información relativa a los certificados y a la configuración de las suscripciones se almacena en el Registro,
en HKEY_CURRENT_USER. La información es específica de inicio de sesión y es visible para cada
combinación de inicio de sesión y máquina. Si inicia sesión en VMM con una cuenta compartida (no
recomendado), cualquier suscripción agregada en dicha cuenta compartida se expondrá para todos los
usuarios.
Como la información es específica de inicio de sesión, si las suscripciones de Azure las agrega un usuario que
sea administrador, los demás administradores de VMM no podrán verlas de forma automática. Debe
configurar la suscripción para cada administrador de VMM que necesite tener acceso a ella.
Antes de comenzar
Esto es lo que necesita para agregar una suscripción de Azure en VMM:
NOTE
La suscripción debe tener la autenticación basada en Active Director y asociada a ella para poder habilitar la
administración de máquinas virtuales tanto clásicas como basadas en ARM. Cree una aplicación de Azure AD mediante
Azure Portal y anote el identificador del directorio y de la aplicación, además de la clave.
NOTE
La suscripción debe tener la autenticación basada en Active Director y asociada a ella para poder habilitar la
administración de máquinas virtuales tanto clásicas como basadas en ARM. Cree una aplicación de Azure AD mediante
Azure Portal y anote el identificador del directorio y de la aplicación, además de la clave.
Antes de comenzar
Esto es lo que necesita agregar a un perfil de Azure para la administración de máquinas virtuales de Azure:
Esto es lo que necesita para crear un perfil de Azure para Azure Update Management:
NOTE
Puede compartir el perfil de Azure con usuarios de autoservicio (SSU) agregándoles como miembros en el
asistente.
Puede ver la lista de todos los perfiles de Azure en Biblioteca > Perfiles > Perfiles de Azure . Seleccione un
perfil de Azure de la lista para ver información detallada de este perfil, en el panel Información general.
Azure Update Management
19/08/2021 • 2 minutes to read
En este artículo se proporciona información acerca de la característica Azure Update Management de System
Center 2019: Virtual Machine Manager (VMM).
Con la característica Azure Update Management, es posible administrar las actualizaciones de las máquinas
virtuales (VM) y cargas de trabajo que se ejecutan en VMM.
Actualmente, VMM admite la característica de administración de actualizaciones en todas las máquinas virtuales
nuevas con sistema operativo Windows y se implementa mediante una plantilla de máquina virtual con la
extensión Azure Update Management habilitada.
NOTE
La funcionalidad Azure Update Management también admite las implementaciones de servicios mediante plantillas de
servicio, el flujo es el mismo que el anterior.
Pasos siguientes
Administración de máquinas virtuales de Azure
Administrar máquinas virtuales de Azure
19/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se proporciona información acerca de la característica Administrar máquinas virtuales de Azure
de System Center 2019: Virtual Machine Manager (VMM).
Esta característica permite realizar acciones básicas en instancias de Azure conectadas a un perfil de Azure
creado para la administración de máquinas virtuales de Azure.
NOTE
Para llevar a cabo estas acciones, debe crear un perfil de Azure y en Uso del perfil debe seleccionar Administración de
máquina vir tual de Azure . Una vez creado un perfil de Azure en Administración de máquina virtual de Azure, desde la
página VM y ser vicios de la consola de VMM se podrá acceder a las máquinas virtuales implementadas en Azure y
estás se enumerarán en Suscripciones de Azure.
Las siguientes acciones se pueden realizar en instancias de Azure sin salir de la consola de VMM.
Agregar y quitar una o más suscripciones de Azure con la consola VMM.
Ver una lista con los detalles y el estado de todas las instancias de rol de todas las implementaciones de esa
suscripción.
Actualizar manualmente la lista de instancias.
Realizar las siguientes acciones básicas en las instancias:
Inicio
Stop
Apagar
Reiniciar
Conectar a través de RDP
Lo que no es compatible
Esta característica no pretende proporcionar ninguna paridad de características con el Portal de administración
de Microsoft Azure. La funcionalidad de esta característica es un pequeño subconjunto de las características de
https://portal.azure.com, pero puede ver sus instancias de Azure y realizar otras acciones básicas que
simplifiquen la administración y las tareas diarias.
Con esta característica no puede:
Administrar la suscripción de Azure
Implementar instancias de Azure
Migrar máquinas virtuales locales a Azure
Administrar el almacenamiento de Azure
Administrar Azure Networks
Consultar la vista Resumen del panel
Consultar el Resumen de supervisión de rendimiento
Administrar más de 50 máquinas virtuales de Azure mediante el perfil de Azure
Administración de máquinas virtuales mediante la
autenticación y autorización basadas en Azure AD y
las suscripciones de Azure específicas de región
21/08/2021 • 2 minutes to read
IMPORTANT
Esta versión de Virtual Machine Manager (VMM) ha alcanzado el final del soporte técnico, le recomendamos que realice la
actualización a VMM 2019.
En este artículo se ofrece información sobre cómo administrar las suscripciones de Azure basadas en Azure
Resource Manager y específicas de la región con System Center Virtual Machine Manager (VMM).
Puede agregar suscripciones de Microsoft Azure a System Center 2016 - Virtual Machine Manager (VMM) y,
después, llevar a cabo las acciones requeridas. Más información. El complemento de Azure de VMM permite la
administración de suscripciones de Azure a través de la autenticación y autorización basadas en certificados, y
máquinas virtuales de la región de Azure pública.
VMM 1801 y versiones posteriores admiten la administración de suscripciones de Azure mediante Azure Active
Directory y las suscripciones de Azure específicas de la región. (Es decir, regiones de Alemania, China, US
Government Azure).
La administración de suscripciones de Azure mediante la autenticación y autorización basadas en certificados
requiere certificados de administración. Más información.
La administración de máquinas virtuales con autenticación y autorización basadas en Azure AD requiere la
aplicación de Azure AD.
Antes de empezar
Asegúrese de cumplir los siguientes requisitos previos:
Aplicación de Azure AD : para administrar máquinas virtuales con VMM a través de la autenticación y
autorización de Active Directory, debe crear una aplicación de Azure AD y, después, proporcionar los
detalles siguientes a través del complemento de Azure de VMM:
Identificador de suscripción de Azure
Identificador de Azure Active Directory
Azure Active Directory: Identificador de aplicación y clave de aplicación
Más información sobre cómo crear una aplicación de Azure AD.
Un cer tificado de administración : con la configuración descrita en este artículo.
La suscripción debe tener un certificado de administración asociado para que VMM pueda usar la
API de administración de servicios en Azure.
Tome nota del id. de suscripción y la huella digital del certificado.
Los certificados deben ser compatibles con x509 v3.
El certificado de administración debe encontrarse en el almacén de certificados local del equipo en
el que agregue la característica de suscripción de Azure.
El certificado también debe encontrarse en el almacén Current User\Personal del equipo en el que
se inicia la consola VMM.
NOTE
El certificado solo se necesita si decide utilizar la autenticación basada en certificados para administrar la
suscripción de Azure.
Pasos siguientes
Creación de certificados
Creación de Active Directory