Está en la página 1de 32

TEMA 13.

- VIRTUALIZACION DE REDES

¡Bienvenido a Virtualización de la Red!

Imagine que vive en una casa de dos dormitorios. Usan el segundo dormitorio
como almacenamiento. El segundo dormitorio está lleno de cajas, pero todavía
tiene más que colocar en el almacenamiento! Podría considerar construir una
adición en su casa. Sería un esfuerzo costoso y puede que no necesite tanto
espacio para siempre. Usted decide alquilar una unidad de almacenamiento para
el desbordamiento.

Al igual que una unidad de almacenamiento, la virtualización de red y los servicios


en la nube pueden proporcionar a una empresa opciones distintas de agregar
servidores a su propio centro de datos. Además del almacenamiento, ofrece otras
ventajas. Comience con este módulo para obtener más información sobre lo que la
virtualización y los servicios en la nube pueden hacer.

13.0.2

¿Qué aprenderá en este módulo?


Título del módulo: Virtualización de la red

Objetivos del módulo: Explique el propósito y las características de la


virtualización de la red.

Título del tema Objetivo del tema


Computación en la nube Explique la importancia de la computación en la nube.
Virtualización Explique la importancia de la virtualización.
Infraestructura de red virtual Describa la virtualización de los servicios y dispositivos de red.
Redes definidas por software Describa las redes definidas por software.
Describa los controladores utilizados en la programación de
Controladores
redes.

La nube: descripción general


En el video anterior, se explicó una visión general de la computación en la nube.
La computación en la nube implica una gran cantidad de computadoras
conectadas a través de una red que puede estar ubicada físicamente cualquier
lugar. Los proveedores confían mucho en la virtualización para prestar servicios de
computación en la nube. La computación en la nube puede reducir costos
operativos al utilizar los recursos con mayor eficacia. La computación en la nube
aborda una variedad de problemas de administración de datos:

 Permite el acceso a los datos de organización en cualquier momento y lugar.


 Optimiza las operaciones de TI de la organización suscribiéndose únicamente a los
servicios necesarios.
 Elimina o reduce la necesidad de equipos, mantenimiento y administración de TI
en las instalaciones.
 Reduce el costo de equipos y energía, los requisitos físicos de la planta y las
necesidades de capacitación del personal.
 Permite respuestas rápidas a los crecientes requisitos de volumen de datos.

La computación en la nube, con su modelo de “pago según el consumo”, permite


que las organizaciones consideren los gastos de computación y almacenamiento
más como un servicio que como una inversión en infraestructura. Los gastos de
capital se transforman en gastos operativos

Servicios en la nube
Los servicios en la nube están disponibles en una variedad de opciones diseñadas
para cumplir con los requisitos del cliente. Los tres servicios principales de
computación en la nube definidos por el Instituto Nacional de Normas y Tecnología
(NIST) de los Estados Unidos en la Publicación especial 800-145 son:

 Software como servicio (SaaS) - El proveedor de la nube es responsable del


acceso a los servicios, como correo electrónico, comunicaciones y Office 365, que
se proporcionan por Internet. El usuario no administra ningún aspecto de los
servicios en la nube, excepto la configuración limitada de la aplicación específica
del usuario. El usuario sólo necesita proporcionar sus datos.
 Plataforma como un Servicio (PaaS) - El proveedor de la nube es responsable
del acceso a las herramientas y los servicios de desarrollo utilizados para distribuir
las aplicaciones. Estos usuarios suelen ser programadores y pueden tener control
sobre la configuración del entorno de alojamiento de aplicaciones del proveedor de
nube.
 Infraestructura como servicio (IaaS) - El proveedor de la nube es responsable
del acceso a los equipos de la red, los servicios de red virtualizados y el soporte de
infraestructura de la red. El uso de este servicio en la nube permite a los
administradores de TI implementar y ejecutar código de software, que puede incluir
sistemas operativos y aplicaciones.

Los proveedores de servicios en la nube han ampliado este modelo para


proporcionar también soporte de TI para cada uno de los servicios de computación
en la nube (ITaaS), como se muestra en la figura. Para las empresas, ITaaS puede
ampliar la capacidad de la red, sin requerir inversiones en nueva infraestructura,
capacitación de personal, ni licencias de software nuevas. Estos servicios están
disponibles a petición y se proporcionan de forma económica a cualquier
dispositivo en cualquier lugar del mundo, sin comprometer la seguridad ni el
funcionamiento.
Modelos de nube
Hay cuatro modelos principales de nube, como se muestra en la figura.

 Nubes públicas - Las aplicaciones basadas en la nube y los servicios que se


ofrecen en una nube pública están a disposición de la población en general. Los
servicios pueden ser gratuitos u ofrecerse sobre la base de pago por utilización,
como el pago por almacenamiento en línea. La nube pública utiliza Internet para
proporcionar servicios.
 Nubes privadas - Las aplicaciones y los servicios basados en una nube privada
que se ofrecen en una nube privada están destinados a una organización o una
entidad específica, como el gobierno. Se puede configurar una nube privada
utilizando la red privada de la organización, si bien el armado y el mantenimiento
pueden ser costosos. Una organización externa que cuente con una seguridad de
acceso estricta también puede administrar una nube privada.
 Nubes híbridas: consta de dos o más nubes (por ejemplo: parte privada, parte
pública), donde cada parte sigue siendo un objeto separado, pero ambos están
conectados mediante una sola arquitectura. En una nube híbrida, las personas
podrían tener grados de acceso a varios servicios según sus derechos de acceso
de usuario.
 Nubes comunitarias - Una nube comunitaria se crea para el uso exclusivo de una
comunidad específica. Las diferencias entre nubes públicas y las comunitarias son
las necesidades funcionales que han sido personalizadas para la comunidad. Por
ejemplo, las organizaciones de servicios de salud deben cumplir las políticas y
leyes (por ejemplo, la HIPAA) que requieren una autenticación y una
confidencialidad especiales.

Computación en la nube frente al centro


de datos
Los términos "centro de datos" y "computación en la nube" suelen usarse de
manera incorrecta. A continuación se brindan las definiciones correctas de "centro
de datos" y "computación en la nube":

 Data center: Por lo general, una instalación de almacenamiento y procesamiento


de datos administrada por un departamento de TI interno o arrendado fuera del
sitio.
 Computación en la nube: Por lo general, un servicio fuera de las instalaciones
que ofrece acceso a pedido a un grupo compartido de recursos informáticos
configurables. Estos recursos se pueden aprovisionar y liberar rápidamente con un
esfuerzo de administración mínimo.

Los centros de datos son las instalaciones físicas que proporcionan las
necesidades informáticas, de red y de almacenamiento de los servicios de
computación en la nube. Los proveedores de servicios en la nube usan los centros
de datos para alojar los servicios en la nube y los recursos basados en la nube.

Un centro de datos puede ocupar una habitación en un edificio, un piso o más, o


un edificio entero. Por lo general, la creación y el mantenimiento de centros de
datos son muy costosos. Por esta razón, solo las grandes organizaciones utilizan
centros de datos privados creados para alojar sus datos y proporcionar servicios a
los usuarios. Las organizaciones más pequeñas que no pueden mantener su
propio centro de datos privado pueden reducir el costo total de propiedad mediante
el arrendamiento de servicios de servidor y almacenamiento a una organización de
centro de datos más grande en la nube.
Computación en la nube y virtualización
En el tema anterior, ha aprendido acerca de los servicios en la nube y los modelos
en la nube. En este tema se explicará la virtualización. Los términos "computación
en la nube" y "virtualización" suelen usarse de manera intercambiable; no obstante,
significan dos cosas distintas. La virtualización es la base de la computación en la
nube. Sin esta base, la computación en la nube que se implementa masivamente
no sería posible.

La virtualización separa el sistema operativo (SO) del hardware. Varios


proveedores ofrecen servicios virtuales en la nube que permiten aprovisionar
servidores de manera dinámica según sea necesario. Por ejemplo, Amazon Web
Services (AWS) proporciona una forma sencilla para que los clientes aprovisionen
dinámicamente los recursos informáticos que necesitan. Estas instancias
virtualizadas de los servidores se crean a pedido. Como se muestra en la figura, el
administrador de red puede implementar una variedad de servicios desde AWS
Management Console, incluidas máquinas virtuales, aplicaciones web, servidores
virtuales y conexiones a dispositivos IoT.

Servidores dedicados
Para poder apreciar completamente la virtualización, primero es necesario
entender un poco parte la historia de la tecnología de los servidores.
Históricamente, los servidores empresariales consistían en un sistema operativo
de servidor, como Windows Server o Linux Server, instalado en un hardware
específico, como se muestra en la figura. Toda la RAM, la potencia de
procesamiento y todo el espacio del disco duro de un servidor se dedicaban al
servicio proporcionado (por ejemplo, red, servicios de correo electrónico, etc).

La figura muestra una variedad de servidores dedicados y su hardware y sistemas


operativos. La figura muestra ocho servidores diferentes: servidor web, servidor de
correo electrónico, servidor SQL, servidor de archivos, servidor DHCP, servidor
Active Directory, servidor AAA Radius y servidor de administración de red. Todos
menos el servidor AAA Radius y el servidor de administración de red están
ejecutando el sistema operativo Windows, este último está ejecutando el sistema
operativo Linux. Todos los servidores tienen el siguiente hardware: CPU, Memoria,
NIC y Disco.
Dedicated Servers

El principal problema con esta configuración es que cuando falla un componente, el servicio
proporcionado por este servidor no se encuentra disponible. Esto se conoce como punto único
de falla. Otro problema era que los servidores dedicados eran infrautilizados. A menudo, los
servidores dedicados estaban inactivos durante largos períodos de tiempo, esperando hasta
que hubiera una necesidad de ofrecer un servicio específico que estos proporcionaban. Estos
servidores malgastaban energía y ocupaban más espacio del que estaba garantizado por la
cantidad de servicio. Esto se conoce como proliferación de servidores.

13.2.3

Virtualización de servidores
La virtualización de servidores saca provecho de los recursos inactivos y consolida el número
de servidores requeridos. Esto también permite que múltiples sistemas operativos existan en
una sola plataforma de hardware.

Por ejemplo, en la figura, los ocho servidores dedicados anteriores se consolidaron en dos
servidores con hipervisores para admitir varias instancias virtuales de los sistemas operativos.

La figura da un ejemplo de la consolidación de ocho servidores dedicados diferentes en dos


servidores. La figura utiliza dos diagramas de ramificación. Comenzando desde abajo, el
servidor 1 tiene hardware con hipervisor en la parte superior, ramificando desde el hipervisor
son cuatro sistemas operativos Windows. En la parte superior del primer sistema operativo
Windows es un servidor web. En la parte superior del segundo sistema operativo Windows hay
un servidor de correo electrónico. En la parte superior del tercer sistema operativo Windows
hay un servidor SQL. En la parte superior del cuarto sistema operativo Windows hay un
servidor de archivos. Comenzando en la parte inferior, el servidor 2 tiene hardware con
hipervisor en la parte superior, ramificado desde el hipervisor son cuatro sistemas operativos
Windows. En la parte superior del primer sistema operativo Windows hay un servidor DHCP. En
la parte superior del segundo sistema operativo Windows es un servidor de directorio activo. En
la parte superior del tercer sistema operativo Windows hay un servidor RADIUS. En la parte
superior del cuarto sistema operativo Windows hay un servidor de administración de red.
Hypervisor OS Installation

El uso de la virtualización normalmente incluye redundancia para brindar protección


desde un punto único de falla. La redundancia se puede implementar de diferentes
maneras. Si falla el hipervisor, se puede reiniciar la VM en otro hipervisor. Además, la
misma VM se puede ejecutar en dos hipervisores simultáneamente copiando las
instrucciones de RAM y de CPU entre estos. Si falla un hipervisor, la VM continúa
ejecutándose en el otro supervisor. Los servicios que se ejecutan en las VM también
son virtuales y se pueden instalar o deshabilitar dinámicamente, según sea necesario.

El Hypervisor es un programa, un firmware o un hardware que suma una capa de


abstracción a la parte superior del hardware físico real. La capa de abstracción se
utiliza para crear máquinas virtuales que tienen acceso a todo el hardware de la
máquina física, como CPU, memoria, controladores de disco y NIC. Cada una de esas
máquinas virtuales ejecuta un sistema operativo completo y separado. Con la
virtualización, las empresas ahora pueden consolidar la cantidad de servidores
necesarios. Por ejemplo, no resulta raro que 100 servidores físicos se consoliden
como máquinas virtuales sobre 10 servidores físicos que usan hipervisores.

13.2.4

Ventajas de la virtualización
Una de las ventajas más importantes de la virtualización es un menor costo total:

 Menos cantidad de equipos necesarios: La virtualización permite la consolidación


de servidores, lo que reduce la cantidad necesaria de servidores físicos, dispositivos
de red e infraestructura de soporte. También significa menores costos de
mantenimiento.
 Menor consumo de energía: La consolidación de servidores reduce los costos
mensuales de alimentación y refrigeración. El consumo reducido ayuda a las
empresas a alcanzar una huella de carbono más pequeña.
 Menos espacio necesario: La consolidación de servidores con virtualización reduce
la huella total del centro de datos. Menos servidores, dispositivos de red y racks
reducen la cantidad de espacio de piso requerido.

Estos son los beneficios adicionales de la virtualización:

 Simplificación de prototipos: Se pueden crear rápidamente laboratorios autónomos


que operan en redes aisladas para las pruebas y los prototipos de instalaciones de
red. Si se comete un error, un administrador puede volver simplemente a una versión
anterior. Los entornos de prueba pueden estar en línea, pero deben estar aislados de
los usuarios finales. Una vez terminadas las pruebas, los servidores y sistemas
pueden implementarse para los usuarios finales.
 Aprovisionamiento más rápido de servidores: La creación de un servidor virtual es
mucho más rápida que el aprovisionamiento de un servidor físico.
 Mayor tiempo de actividad de servidores: La mayoría de las plataformas de
virtualización de servidores actuales ofrecen funciones avanzadas y redundantes de
tolerancia a fallas, como migración en vivo, migración de almacenamiento, alta
disponibilidad y planificación de recursos distribuidos.
 Recuperación tras un desastre mejorada: La virtualización ofrece soluciones
avanzadas de continuidad de los negocios. Brinda la capacidad de abstracción de
hardware de modo que el sitio de recuperación ya no necesite tener hardware que sea
idéntico al hardware del entorno de producción. La mayoría de las plataformas de
virtualización de servidores de la empresa también tienen software que puede ayudar
a probar y automatizar las fallas antes de que suceda un desastre.
 Soporte de tecnologías heredadas: La virtualización puede ampliar la vida útil de los
SO y las aplicaciones, para que las organizaciones tengan más tiempo para migrarse
a soluciones más nuevas.

13.2.5

Capas de abstracción
Para ayudar a explicar cómo funciona la virtualización, es útil usar capas de
abstracción en las arquitecturas informáticas. Un sistema de computación consta de
las siguientes capas de abstracción, como se muestra en la figura:

 Servicios
 OS
 Firmware
 Hardware
En cada una de estas capas de abstracción, se utiliza algún tipo de código de
programación como interfaz entre la capa inferior y la capa superior. Por ejemplo,
el lenguaje de programación C suele usarse para programar el firmware que tiene
acceso al hardware.

Un ejemplo de virtualización se muestra en la figura. Un hipervisor se instala entre


el firmware y el OS. El hipervisor puede admitir varias instancias de SO.

Hipervisores de tipo 2
Un hipervisor, tipo 2, es un software que crea y ejecuta instancias de VM. La
computadora, en la que un hipervisor está ejecutando una o más VM, es un equipo
host. Los hipervisores de tipo 2 también se denominan hipervisores alojados. Esto
se debe a que el hipervisor está instalado sobre el OS existente, como Mac OS X,
Windows o Linux. Luego, una o más instancias adicionales de OS se instalan
sobre el hipervisor, como se muestra en la figura.
Una gran ventaja de los hipervisores de tipo 2 es que el software de la consola de
administración no es necesario.

Los hipervisores de tipo 2 son muy populares entre los consumidores y en las
organizaciones que experimentan con la virtualización. Los hipervisores comunes
de tipo 2 incluyen:

 Virtual PC
 VMware Workstation
 Oracle VM VirtualBox
 VMware Fusion
 Mac OS X Parallels

Muchos de estos hipervisores de tipo 2 son gratuitos. Sin embargo, algunos


hipervisores ofrecen funciones más avanzadas por una tarifa.

Note: Es importante asegurarse de que la máquina host sea lo suficientemente


robusta para instalar y ejecutar las máquinas virtuales, de modo que no se quede
sin recursos.
1. La virtualización separa el SO del hardware.
2. Un servidor dedicado utiliza toda la RAM, la potencia de procesamiento y el
espacio en el disco duro dedicado a un servicio.
3. El Hypervisor es un programa, un firmware o un hardware que suma una capa de
abstracción a la parte superior del hardware físico real.
4. Las principales ventajas de la virtualización incluyen:

 Se requieren menos equipos


 Se consume menos energía
 Se requiere menos espacio
 Prototipos más fáciles
 Aprovisionamiento más rápido de servidores
 Más tiempo de actividad del servidor
 Recuperación tras desastres mejorada
 Soporte heredado

5. El hipervisor de tipo 2 es una tecnología de virtualización que se instala encima del


sistema operativo existente para crear y ejecutar instancias de VM.

Hipervisores de tipo 1
En el tema anterior, aprendió sobre la virtualización. Este tema abarcará la
infraestructura de red virtual.

El hypervisor de tipo 1 también se denomina infraestructura física (bare metal),


porque el hypervisor está instalado directamente en el hardware. Los hipervisores
de tipo 1 se usan generalmente en los servidores empresariales y los dispositivos
de redes para centros de datos.
Con los hipervisores de tipo 1, el hipervisor se instala directamente en el servidor o
en el hardware de red. Luego, las instancias de OS se instalan sobre el hipervisor,
como se muestra en la figura. Los hipervisores de tipo 1 tienen acceso directo a los
recursos de hardware. Por lo tanto, son más eficientes que las arquitecturas
alojadas. Los hipervisores de tipo 1 mejoran la escalabilidad, el rendimiento y la
solidez.

Instalación de una VM en un hipervisor


Cuando se instala un hipervisor de tipo 1 y se reinicia el servidor, sólo se muestra
la información básica, como la versión de OS, la cantidad de RAM y la dirección IP.
Una instancia de OS no se puede crear a partir de esta pantalla. Los hipervisores
de tipo 1 requieren una “consola de administración” para administrar el hipervisor.
El software de administración se utiliza para administrar varios servidores con el
mismo hipervisor. La consola de administración puede consolidar los servidores
automáticamente y encender o apagar los servidores, según sea necesario.

Por ejemplo, supongamos que el Servidor 1 de la figura se está quedando sin


recursos. Para hacer que haya más recursos disponibles, la consola de
administración mueve la instancia de Windows al hipervisor en el Servidor2. La
consola de administración también se puede programar con umbrales que
activarán el movimiento automáticamente

La consola de administración proporciona la recuperación ante las fallas de hardware.


Si falla un componente del servidor, la consola de administración mueve la VM a otro
servidor. La consola de administración de Cisco Unified Computing System (UCS) se
muestra en la figura. Cisco UCS Manager controla varios servidores y administra los
recursos de miles de VM.

Algunas consolas de administración también permiten la sobre-asignación. La


sobre-asignación se produce cuando se instalan varias instancias de OS, pero su
asignación de memoria excede la cantidad total de memoria que tiene un servidor.
Por ejemplo, un servidor tiene 16 GB de RAM, pero el administrador crea cuatro
instancias de OS con 10 GB de RAM asignadas a cada una. Este tipo de
asignación excesiva es habitual porque las cuatro instancias de OS requieren
raramente los 10 GB completo de RAM en todo momento.

13.3.3

La complejidad de la virtualización de
redes
La virtualización del servidor oculta los recursos del servidor, como el número e
identidad de servidores físicos, procesadores y sistemas operativos de los usuarios
del servidor. Esta práctica puede crear problemas si el centro de datos está
utilizando las arquitecturas de red tradicionales.

Por ejemplo, las LAN virtuales (VLAN) utilizadas por las VM se deben asignar al
mismo puerto de switch que el servidor físico que ejecuta el hipervisor. Sin
embargo, las VM son trasladables, y el administrador de la red debe poder
agregar, descartar y cambiar los recursos y los de la red. Este proceso sería
manual y llevaría mucho tiempo con los switches de red tradicionales.
Otro problema es que los flujos de tráfico difieren considerablemente del modelo
cliente-servidor tradicional. Normalmente, un centro de datos intercambia una
cantidad considerable de tráfico entre servidores virtuales, como los servidores
UCS que se muestran en la figura. Estos flujos se denominan tráfico Este-Oeste y
pueden cambiar en ubicación e intensidad con el tiempo. El tráfico Norte-Sur se
produce entre las capas de distribución y núcleo y suele ser tráfico destinado a
ubicaciones fuera del sitio, como otro centro de datos, otros proveedores de nube
o Internet.

El tráfico dinámico en constante cambio requiere un enfoque flexible para la


administración de recursos de red. Las infraestructuras de red existentes pueden
responder a los requisitos cambiantes, relacionados con la administración de los
flujos de tráfico utilizando las configuraciones de calidad de servicio (QoS) y de
ajustes de nivel de seguridad para los flujos individuales. Sin embargo, en
empresas grandes que utilizan equipos de varios proveedores, cada vez que se
activa una nueva VM, la reconfiguración necesaria puede llevar mucho tiempo.

La infraestructura de red también puede beneficiarse de la virtualización. Las


funciones de red se pueden virtualizar. Cada dispositivo de red se puede
segmentar en varios dispositivos virtuales que funcionan como dispositivos
independientes. Entre los ejemplos se incluyen subinterfaces, interfaces virtuales,
VLAN y tablas de enrutamiento. El enrutamiento virtualizado se denomina
enrutamiento y reenvío virtuales (VRF).

¿Cómo se virtualiza la red? La respuesta se encuentra en cómo funciona un


dispositivo de red utilizando un plano de datos y un plano de control, como se
discute en el siguiente tema.
REDES DEFINIDAS POR SOFTWARE

Plano de control y plano de datos


En el tema anterior se explicaba la infraestructura de red virtual. Este tema
abarcará las redes definidas por software (SDN). SDN fue explicado en el video
anterior. Vamos a cubrir más detalles aquí.

Un dispositivo de red contiene los siguientes planos:

 Plano de control - Suele considerarse el cerebro del dispositivo. Se utiliza para


tomar decisiones de reenvío. El plano de control contiene los mecanismos de
reenvío de ruta de capa 2 y capa 3, como las tablas de vecinos de protocolo de
enrutamiento y las tablas de topología, las tablas de enrutamiento IPv4 e IPv6,
STP, y la tabla ARP. La información que se envía al plano de control es procesada
por la CPU.
 Plano de datos - También conocido como plano de reenvío, este plano suele ser
la estructura de switch que conecta lo varios puertos de red de un dispositivo. El
plano de datos de cada dispositivo se utiliza para reenviar los flujos de tráfico. Los
routers y los switches utilizan la información del plano de control para reenviar el
tráfico entrante desde la interfaz de egreso correspondiente. La información en el
plano de datos generalmente es procesada por un procesador especial del plano
de datos sin que la CPU se involucre.

SWITCH DE CAPA 3 Y CEF


La figura ilustra cómo Cisco Express Forwarding (CEF) utiliza el plano de control y
el plano de datos para procesar paquetes.
CEF es una tecnología de switching de IP de capa 3 que permite que el reenvío de
los paquetes ocurra en el plano de datos sin que se consulte el plano de control.
En CEF, la tabla de routing del plano de control rellena previamente la tabla de
base de información de reenvío (FIB) de CEF en el plano de datos. La tabla de
ARP del plano de control se completa con la tabla de adyacencia. Luego el plano
de datos reenvía directamente los paquetes en función de la información del FIB y
la tabla de adyacencia, sin necesidad de consultar la información del plano de
control.

SDN Y CONTROLADOR CENTRAL


SDN es básicamente la separación del plano de control y el plano de datos. La
función del plano de control se elimina de cada dispositivo y se realiza mediante un
controlador centralizado, como se muestra en la figura. El controlador centralizado
comunica las funciones del plano de control a cada dispositivo. Cada dispositivo
ahora puede enfocarse en el envío de datos mientras el controlador centralizado
administra el flujo de datos, mejora la seguridad y proporciona otros servicios
Plano de gestión

No se muestra en las figuras el plano de gestión, que es responsable de


administrar un dispositivo a través de su conexión a la red. Los administradores de
red utilizan aplicaciones como Secure Shell (SSH), Trivial File Transfer Protocol
(TFTP), Secure FTP y Secure Hypertext Transfer Protocol (HTTPS) para acceder
al plano de administración y configurar un dispositivo. El plano de administración
es la forma en que ha accedido y configurado los dispositivos en sus estudios de
redes. Además, protocolos como Simple Network Management Protocol (SNMP),
utilizan el plano de administración.

13.4.3

Tecnologías de virtualización de red


Hace más de una década, VMware desarrolló una tecnología de virtualización que
permitió que un sistema operativo host admitiera uno o más sistemas operativos
cliente. La mayoría de las tecnologías de virtualización ahora se basan en esta
tecnología. La transformación de los servidores exclusivos para los servidores
virtualizados se ha adoptado y se implementa rápidamente en el centro de datos y
las redes empresariales.

Se han desarrollado dos arquitecturas de red principales para admitir la


virtualización de la red:

 Redes definidas por software (SDN) : una arquitectura de red que virtualiza la
red, ofreciendo un nuevo enfoque para la administración y administración de redes
que busca simplificar y optimizar el proceso de administración.
 Infraestructura centrada en aplicaciones (ACI) de Cisco - Solución de hardware
diseñada específicamente para integrar la computación en la nube con la
administración de centros de datos.

Los componentes de SDN pueden incluir los siguientes:

 OpenFlow - Este enfoque se desarrolló en la Universidad de Stanford para


administrar el tráfico entre routers, switches, puntos de acceso inalámbrico y un
controlador. El protocolo OpenFlow es un elemento básico en el desarrollo de
soluciones de SDN. Busque OpenFlow y Open Networking Foundation para
obtener más información.
 OpenStack - Este enfoque es una plataforma de virtualización y orquestación
diseñada para crear entornos de nube escalables y proporcionar una solución
IaaS. OpenStack se usa frecuentemente en conjunto con Cisco ACI. La
organización en la red es el proceso para automatizar el aprovisionamiento de los
componentes de red como servidores, almacenamiento, switches, routers y
aplicaciones. Busque OpenStack para obtener más información.
 Otros componentes - Otros componentes incluyen la interfaz al sistema de
routing (I2RS), la interconexión transparente de muchos enlaces (TRILL), Cisco
FabricPath (FP) y los puentes de ruta más corta (SPB) de IEEE
Arquitecturas tradicionales y de SDN
En un router o una arquitectura de switches tradicionales, el plano de control y las
funciones del plano de datos se producen en el mismo dispositivo. Las decisiones
de enrutamiento y el envío de paquetes son responsabilidad del sistema operativo
del dispositivo. En SDN, la administración del plano de control se mueve a un
controlador SDN centralizado. La figura compara la arquitectura tradicional contra
SDN.

El controlador de SDN es una entidad lógica que permite que los administradores
de red administren y determinen cómo el plano de datos de switches y routers
debe administrar el tráfico de red. Coordina, media y facilita la comunicación entre
las aplicaciones y los elementos de red.

El marco SDN completo se muestra en la figura. Observe el uso de interfaces de


programación de aplicaciones (API) dentro del marco de SDN. Una API es un
conjunto de solicitudes estandarizadas que definen la forma adecuada para que
una aplicación solicite servicios de otra aplicación. El controlador de SDN usa los
API ascendentes para comunicarse con las aplicaciones ascendentes. Estos
administradores de red de ayuda de API forman el tráfico e implementan los
servicios. El controlador SDN también utiliza API hacia el sur para definir el
comportamiento de los planos de datos en switches y routers posteriores.
OpenFlow es la API original descendente ampliamente implementada.
CONTROLADORES

Operaciones y controlador SDN


El tema anterior cubrió SDN. En este tema se explicarán los controladores.

El controlador SDN define los flujos de datos entre el plano de control centralizado
y los planos de datos en routers y switches individuales.

Cada flujo que viaja por la red debe primero obtener permiso del controlador SDN,
que verifica que la comunicación esté permitida según la política de red. Si el
controlador permite un flujo, calcula una ruta para que tome el flujo y agrega una
entrada para ese flujo en cada uno de los switches que están a lo largo de la ruta.

El controlador realiza todas las funciones complejas. El controlador completa las


tablas de flujo. Los switches administran las tablas de flujo. En la figura, un
controlador SDN se comunica con los switches compatibles con OpenFlow con el
protocolo OpenFlow. Este protocolo utiliza Transport Layer Security (TLS) para
enviar de manera segura las comunicaciones del plano de control a través de la
red. Cada switch de OpenFlow se conecta con otros switches de OpenFlow.
También pueden conectarse a los dispositivos de usuarios finales que forman
parte de un flujo de paquetes

Dentro de cada switch, se utiliza una serie de tablas implementadas en el


hardware o el firmware para administrar flujos de paquetes a través del switch.
Para el switch, un flujo es una secuencia de paquetes que coincide con una
entrada específica en una tabla de flujo.

Los tres tipos de tablas que se muestran en la figura anterior son los siguientes:

 Tabla de flujo - Esta tabla asigna los paquetes entrantes a un flujo


determinado y especifica las funciones que deben realizarse en los paquetes.
Puede haber tablas de flujo múltiples que funcionan a modo de canalización.
 Tabla de grupos - Una tabla de flujo puede dirigir un flujo a una tabla de
grupos, que puede alimentar una variedad de acciones que afecten a uno o
más flujos
 Tabla de medidor - Esta tabla activa una variedad de acciones relacionadas
con el funcionamiento en un flujo

13.5.2

Vídeo - Cisco ACI


Muy pocas organizaciones tienen realmente el deseo o las habilidades para
programar la red utilizando las herramientas de SDN. Sin embargo, la mayoría
de las organizaciones desea automatizar la red, acelerar la implementación de
aplicaciones y alinear sus infraestructuras de TI para cumplir mejor con los
requisitos empresariales. Cisco desarrolló la Infraestructura centrada en
aplicaciones (ACI) para alcanzar los siguientes objetivos de maneras más
avanzadas y más innovadoras que antes los enfoques de SDN.

Cisco ACI es una solución de hardware diseñada específicamente para integrar


la computación en la nube con la administración de centros de datos. En un
nivel alto, el elemento de políticas de la red se elimina del plano de datos. Esto
simplifica el modo en que se crean redes del centro de datos.

Componentes principales de ACI


Estos son los tres componentes principales de la arquitectura de ACI:

 Perfil de aplicación de red (ANP) - Un ANP es una colección de grupos de


terminales (EPG) con sus conexiones y las políticas que definen dichas
conexiones. Los EPG que se muestran en la figura, como VLAN, servicios web y
aplicaciones, son solo ejemplos. Un ANP es con frecuencia mucho más complejo.
 Controlador de infraestructura de política de aplicación (APIC) - El APIC se
considera el cerebro de la arquitectura de ACI. El APIC es un controlador
centralizado de software que administra y opera una estructura agrupada ACI
escalable. Está diseñado para la programabilidad y la administración centralizada.
Traduce las políticas de las aplicaciones a la programación de la red.
 Switches de la serie 9000 de Cisco Nexus - Estos switches proporcionan una
estructura de switching con reconocimiento de aplicaciones y operan con un APIC
para administrar la infraestructura virtual y física de la red.
El APIC se coloca entre el APN y la infraestructura de red habilitada para ACI. El
APIC traduce los requisitos de la aplicación en una configuración de red para
satisfacer esas necesidades, como se muestra en la figura

Topología de Hoja-espina
La estructura Cisco ACI está compuesto por los switches APIC y Cisco Nexus de
la serie 9000 que utilizan una topología de hoja espinal de dos niveles, como se
muestra en la figura. Los switches de hoja siempre se unen a las espinas, pero
nunca se unen entre sí. Del mismo modo, los switches de la columna solo se
conectan a los switches de hoja y núcleo (no se muestran). En esta topología de
dos niveles, todo está a un salto de todo lo demás.

Los APIC de Cisco y todos los demás dispositivos de la red se conectan


físicamente a los switches de hoja.

En comparación con una SDN, el controlador de APIC no manipula la ruta de datos


directamente. En cambio, el APIC centraliza la definición de la política y programa
los switches de hoja para reenviar el tráfico en función de las políticas definidas
Tipos de SDN
El Módulo empresarial del Controlador de infraestructura de política de aplicación
(APIC-EM) de Cisco amplía las capacidades de ACI para las instalaciones
empresariales y de campus. Para comprender mejor el APIC-EM, es útil dar una
mirada más amplia a los tres tipos de SDN.

SDN basada en dispositivos

En este tipo de SDN, los dispositivos son programables por las aplicaciones que se
ejecutan en el mismo dispositivo o en un servidor en la red, como se muestra en la
figura. Cisco OnePK es un ejemplo de un SDN basado en dispositivos. Permite
que los programadores creen aplicaciones utilizando C y a Java con Python para
integrar e interactuar con los dispositivos Cisco.
SDN basada en controladores

Este tipo de SDN utiliza un controlador centralizado que tiene conocimiento de


todos los dispositivos de la red, como se muestra en la figura. Las aplicaciones
pueden interactuar con el controlador responsable de administrar los dispositivos y
de manipular los flujos de tráfico en la red. El controlador SDN Cisco Open es una
distribución comercial de Open Daylight.

SDN basada en políticas

Este tipo de SDN es similar a un SDN basado en controladores donde un


controlador centralizado tiene una vista de todos los dispositivos de la red, como
se muestra en la figura. El SDN basado en políticas incluye una capa de políticas
adicional que funciona a un nivel de abstracción mayor. Usa aplicaciones
incorporadas que automatizan las tareas de configuración avanzadas mediante un
flujo de trabajo guiado y una GUI fácil de usar. No se necesitan conocimientos de
programación. Cisco APIC-EM es un ejemplo de este tipo de SDN
Características APIC-EM
Cada tipo de SDN tiene sus propias características y ventajas. Las SDN basadas
en políticas son las más resistentes, lo que proporciona un mecanismo simple para
controlar y administrar políticas en toda la red.

Cisco APIC-EM es un ejemplo de SDN basado en políticas. Cisco APIC-EM


proporciona una interfaz única para la administración de red que incluye:

 descubrir y acceder a los inventarios de dispositivos y hostes,


 ver la topología (como se muestra en la figura),
 trazar una ruta entre los puntos finales, y
 establecer políticas.

Trazado de ruta APIC-EM


La herramienta APIC-EM Path Trace permite al administrador visualizar fácilmente
los flujos de tráfico y descubrir cualquier entrada ACL en conflicto, duplicada o
sombreada. Esta herramienta examina las ACL específicas en la ruta entre dos
nodos finales y muestra todos los problemas potenciales. Puede ver dónde las
ACL a lo largo de la ruta permitieron o denegaron el tráfico, como se muestra en la
figura. Observe cómo Branch-Router2 es permitir todo el tráfico. El administrador
de red ahora puede realizar ajustes, si es necesario, para filtrar mejor el tráfico.
¿Qué aprendió en este módulo?
Computación en la nube

La computación en la nube implica una gran cantidad de computadoras


conectadas a través de una red que puede estar ubicada físicamente cualquier
lugar. La computación en la nube puede reducir costos operativos al utilizar los
recursos con mayor eficacia. La computación en la nube aborda una variedad de
problemas de administración de datos:

 Permite el acceso a los datos organizacionales en cualquier momento y lugar.


 Perfecciona las operaciones de TI de la organización mediante la suscripción a
solo los servicios necesarios.
 Elimina o reduce la necesidad de equipamiento, mantenimiento y administración
de TI en el sitio.
 Reduce los costos de los equipos, la electricidad, los requisitos de planta físicos y
las necesidades de capacitación del personal.
 Permite respuestas rápidas a los requisitos de volumen de datos crecientes.

Los tres principales servicios de Computación en la nube definidos por el National


Institute of Standards and Technology (NIST) son Software as a Service (SaaS),
Platform as a Service (PaaS) e Infrastructure as a Service (IaaS). Con SaaS, el
proveedor de la nube es responsable del acceso a las aplicaciones y servicios,
como el correo electrónico, la comunicación y Office 365 que se entregan a través
de Internet. Con PaaS, el proveedor de la nube es responsable de proporcionar a
los usuarios acceso a las herramientas y servicios de desarrollo utilizados para
entregar las aplicaciones. Con IaaS, el proveedor de la nube es responsable de
dar acceso a los administradores de TI al equipo de red, los servicios de red
virtualizados y la infraestructura de red de soporte. Los cuatro tipos de nubes son
públicas, privadas, híbridas y comunitarias. Las aplicaciones y los servicios
basados en la nube que se ofrecen en una nube pública están a disposición de la
población en general. Las aplicaciones y los servicios basados en la nube que se
ofrecen en una nube privada están destinados a una organización o una entidad
específica, como el gobierno. Una nube híbrida está compuesta por dos o más
nubes (ejemplo: parte privada, parte pública), donde cada parte permanece como
un objeto separado, pero ambas están conectadas usando una sola arquitectura.
Se crea una nube comunitaria para uso exclusivo de una comunidad específica.

Virtualización

Los términos "computación en la nube" y "virtualización" suelen usarse de manera


intercambiable; no obstante, significan dos cosas distintas. La virtualización es la
base de la computación en la nube. La virtualización separa el sistema operativo
(SO) del hardware. Históricamente, los servidores empresariales consistían en un
sistema operativo de servidor, como Windows Server o Linux Server, instalado en
hardware específico. Toda la RAM, la potencia de procesamiento y el espacio en el
disco duro de un servidor se dedicaron al servicio. Cuando un componente falla, el
servicio que proporciona este servidor deja de estar disponible. Esto se conoce
como punto único de falla. Otro problema con los servidores dedicados es que a
menudo permanecen inactivos durante largos períodos de tiempo, esperando
hasta que sea necesario brindar el servicio específico que brindan. Esto
desperdicia energía y recursos (expansión de servidores). La virtualización reduce
los costos porque se requiere menos equipo, se consume menos energía y se
requiere menos espacio. Proporciona prototipos más fáciles, aprovisionamiento de
servidores más rápido, mayor tiempo de actividad del servidor, recuperación ante
desastres mejorada y soporte heredado. Un sistema informático consta de las
siguientes capas de abstracción: servicios, sistema operativo, firmware y hardware.
Con los hipervisores de tipo 1, el hipervisor se instala directamente en el servidor o
en el hardware de red. Un hipervisor, tipo 2, es un software que crea y ejecuta
instancias de VM. Se puede instalar en la parte superior del sistema operativo o se
puede instalar entre el firmware y el sistema operativo. Un hipervisor, tipo 2, es un
software que crea y ejecuta instancias de VM.

Infraestructura de red virtual

El hypervisor de tipo 1 también se denomina infraestructura física (bare metal),


porque el hypervisor está instalado directamente en el hardware. Los hipervisores
tipo 1 tienen acceso directo a los recursos de hardware y son más eficientes que
las arquitecturas alojadas. Permiten mejorar la escalabilidad, el rendimiento y la
solidez. Los hipervisores de tipo 1 requieren una “consola de administración” para
administrar el hipervisor. El software de administración se utiliza para administrar
varios servidores con el mismo hipervisor. La consola de administración puede
consolidar los servidores automáticamente y encender o apagar los servidores,
según sea necesario. La consola de administración proporciona la recuperación
ante las fallas de hardware. Algunas consolas de administración también permiten
la sobre-asignación. La virtualización del servidor oculta los recursos del servidor,
como el número e identidad de servidores físicos, procesadores y sistemas
operativos de los usuarios del servidor. Esta práctica puede crear problemas si el
centro de datos está utilizando las arquitecturas de red tradicionales. Otro
problema es que los flujos de tráfico difieren considerablemente del modelo cliente-
servidor tradicional. Por lo general, un centro de datos intercambia una cantidad
considerable de tráfico entre servidores virtuales. Estos flujos se denominan tráfico
Este-Oeste y pueden cambiar en ubicación e intensidad con el tiempo. El tráfico
Norte-Sur se produce entre las capas de distribución y núcleo y suele ser tráfico
destinado a ubicaciones fuera del sitio, como otro centro de datos, otros
proveedores de nube o Internet.

Redes definidas por software

Se han desarrollado dos arquitecturas de red principales para admitir la


virtualización de red: Redes definidas por software (SDN) y Infraestructura
centrada en aplicaciones de Cisco (ACI). SDN es un enfoque de redes donde la
red es programable por software de forma remota. Los componentes de SDN
pueden incluir OpenFlow, OpenStack y otros componentes. El controlador de SDN
es una entidad lógica que permite que los administradores de red administren y
determinen cómo el plano de datos de switches y routers debe administrar el
tráfico de red. Un dispositivo de red contiene un plano de control y un plano de
datos. El plano de control se considera el cerebro del dispositivo. Se utiliza para
tomar decisiones de reenvío. El plano de control contiene los mecanismos de
reenvío de ruta de capa 2 y capa 3, como las tablas de vecinos de protocolo de
enrutamiento y las tablas de topología, las tablas de enrutamiento IPv4 e IPv6,
STP, y la tabla ARP. La información que se envía al plano de control es procesada
por la CPU. El plano de datos, también llamado plano de reenvío, es típicamente la
estructura del switch que conecta los diversos puertos de red en un dispositivo. El
plano de datos de cada dispositivo se utiliza para reenviar los flujos de tráfico. Los
routers y los switches utilizan la información del plano de control para reenviar el
tráfico entrante desde la interfaz de egreso correspondiente. La información en el
plano de datos generalmente es procesada por un procesador especial del plano
de datos sin que la CPU se involucre. Cisco Express Forwarding (CEF) utiliza el
plano de control y el plano de datos para procesar paquetes. CEF es una
tecnología de switching de IP de capa 3 que permite que el reenvío de los
paquetes ocurra en el plano de datos sin que se consulte el plano de control. SDN
es básicamente la separación del plano de control y el plano de datos. La función
del plano de control es eliminada de cada dispositivo, y la misma es realizada
desde un controlador central. El controlador centralizado comunica las funciones
del plano de control a cada dispositivo. El plano de administración es responsable
de administrar un dispositivo a través de su conexión a la red. Los administradores
de red utilizan aplicaciones como Secure Shell (SSH), Trivial File Transfer Protocol
(TFTP), Secure FTP y Secure Hypertext Transfer Protocol (HTTPS) para acceder
al plano de administración y configurar un dispositivo. Los protocolos como Simple
Network Management Protocol (SNMP) utilizan el plano de administración.

Controladores

El controlador de SDN es una entidad lógica que permite que los administradores
de red administren y determinen cómo el plano de datos de switches y routers
debe administrar el tráfico de red. El controlador SDN define los flujos de datos
entre el plano de control centralizado y los planos de datos en routers y switches
individuales. Cada flujo que viaja por la red debe primero obtener permiso del
controlador SDN, que verifica que la comunicación esté permitida según la política
de red. Si el controlador permite un flujo, calcula una ruta para que tome el flujo y
agrega una entrada para ese flujo en cada uno de los switches que están a lo largo
de la ruta. El controlador completa las tablas de flujo. Los switches administran las
tablas de flujo. La tabla de flujo identifica los paquetes entrantes con un flujo en
particular y especifica las funciones que se realizarán sobre los paquetes. Puede
haber tablas de flujo múltiples que funcionan a modo de canalización. Una tabla de
flujo puede dirigir un flujo a una tabla de grupos, que puede alimentar una variedad
de acciones que afecten a uno o más flujos. Una tabla de medidores activa una
variedad de acciones relacionadas con el rendimiento en un flujo, incluida la
capacidad de limitar el tráfico. Cisco desarrolló el Application Centric Infrastructure
(ACI) que es una forma más avanzada e innovadora que los enfoques SDN
anteriores. Cisco ACI es una solución de hardware diseñada específicamente para
integrar la computación en la nube con la administración de centros de datos. En
un nivel alto, el elemento de políticas de la red se elimina del plano de datos. Esto
simplifica el modo en que se crean redes del centro de datos. Los tres
componentes principales de la arquitectura ACI son Application Network Profile
(ANP), Application Policy Infrastructure Controller (APIC) y los switches Cisco
Nexus 9000. El tejido Cisco ACI está compuesto por los switches APIC y Cisco
Nexus de la serie 9000 que utilizan una topología de hoja espinal de dos niveles.
En comparación con una SDN, el controlador de APIC no manipula la ruta de datos
directamente. En cambio, el APIC centraliza la definición de la política y programa
los switches de hoja para reenviar el tráfico en función de las políticas definidas.
Existen tres tipos de SDN: SDN basada en dispositivos: los dispositivos son
programables mediante aplicaciones que se ejecutan en el dispositivo mismo o en
un servidor en la red. SDN basada en controladores: utiliza un controlador
centralizado que tiene conocimiento de todos los dispositivos de la red. SDN
basada en políticas: similar a la SDN basada en controlador, ya que un controlador
centralizado tiene una vista de todos los dispositivos de la red. El SDN basado en
políticas incluye una capa de políticas adicional que funciona a un nivel de
abstracción mayor. Las SDN basadas en políticas son las más resistentes, lo que
proporciona un mecanismo simple para controlar y administrar políticas en toda la
red. Cisco APIC-EM es un ejemplo de SDN basado en políticas. Cisco APIC-EM
proporciona una interfaz única para la administración de redes, que incluye el
descubrimiento y acceso a inventarios de dispositivos y hosts, la visualización de la
topología, el seguimiento de una ruta entre los puntos finales y el establecimiento
de políticas. La herramienta APIC-EM Path Trace permite al administrador
visualizar fácilmente los flujos de tráfico y descubrir cualquier entrada ACL en
conflicto, duplicada o sombreada. Esta herramienta examina las ACL específicas
en la ruta entre dos nodos finales y muestra todos los problemas potenciales.

También podría gustarte