Está en la página 1de 32

4.11.1.

1: Descripción general de la nube

La computación en la nube implica una gran cantidad de computadoras conectadas a


través de una red que puede estar ubicada físicamente en cualquier lugar. Los
proveedores dependen en mayor medida de la virtualización para brindar sus servicios
de computación en la nube. La computación en la nube puede reducir costos operativos
al utilizar los recursos con mayor eficacia.

La computación en la nube admite una variedad de problemas de administración de


datos:

 Permite el acceso a los datos de organización en cualquier momento y lugar.


 Optimiza las operaciones de TI de la organización suscribiéndose únicamente a los
servicios necesarios.
 Elimina o reduce la necesidad de equipos, mantenimiento y administración de TI en
las instalaciones.
 Reduce el costo de equipos y energía, los requisitos físicos de la planta y las
necesidades de capacitación del personal.
 Permite respuestas rápidas a los crecientes requisitos de volumen de datos.

La computación en la nube, con su modelo de “pago según el consumo”, permite que


las organizaciones consideren los gastos de computación y almacenamiento más como
un servicio que como una inversión en infraestructura. Los gastos de capital se
transforman en gastos operativos.
4.11.1.2: Servicios en la nube

Los servicios en la nube están disponibles en una variedad de opciones diseñadas para
cumplir con los requisitos del cliente. Los tres servicios principales de computación en la
nube definidos por el Instituto Nacional de Normas y Tecnología (NIST) de los Estados
Unidos en su publicación especial 800-145 son los siguientes:

Software como servicio (SaaS): El proveedor de la nube es responsable del acceso a


los servicios, como correo electrónico, comunicación y Office 365 que se ofrecen a
través de Internet. El usuario sólo necesita proporcionar sus datos.

Plataforma como servicio (PaaS): El proveedor de la nube es responsable del acceso


a las herramientas y los servicios de desarrollo utilizados para distribuir las
aplicaciones.

Infraestructura como servicio (IaaS): El proveedor de la nube es responsable del


acceso al equipo de red, los servicios de red virtualizados y la infraestructura de red que
utiliza.

Los proveedores de servicios en la nube han extendido este modelo para proporcionar
también soporte de TI para cada uno de los servicios de computación en la nube
(ITaaS).

Para las empresas, los ITaaS pueden extender las funcionalidades de TI sin necesidad
de invertir en infraestructura nueva, capacitación de personal nuevo o licencias de
software nuevo. Estos servicios están disponibles a petición y se proporcionan de forma
económica a cualquier dispositivo en cualquier lugar del mundo, sin comprometer la
seguridad ni el funcionamiento.
4.11.1.3: Modelos de nube

Existen cuatro tipos principales de nubes, como se muestra en la Figura 1.

Figura 1: Modelos de nube

Nubes públicas: Las aplicaciones basadas en la nube y los servicios que se ofrecen
en una nube pública están a disposición de la población en general. Los servicios
pueden ser gratuitos u ofrecerse en el formato de pago según el uso, como el pago de
almacenamiento en línea. La nube pública utiliza Internet para proporcionar servicios.

Nubes privadas: Las aplicaciones y los servicios basados en una nube privada que se
ofrecen en una nube privada están destinados a una organización o una entidad
específica, como el gobierno. Se puede configurar una nube privada utilizando la red
privada de la organización, si bien el armado y el mantenimiento pueden ser costosos.
Una organización externa que cuente con una seguridad de acceso estricta también
puede administrar una nube privada.

Nubes híbridas: Una nube híbrida consta de dos o más nubes (por ejemplo, una parte
personalizada y otra parte pública); donde cada una de las partes sigue siendo un
objeto separado, pero ambas están conectadas a través de una única arquitectura. En
una nube híbrida, las personas podrían tener grados de acceso a diversos servicios
según los derechos de acceso de los usuarios.

Nubes personalizadas: Estas son nubes desarrolladas para satisfacer las necesidades
de una industria específica, como los servicios de salud o los medios de comunicación.
Las nubes personalizadas pueden ser privadas o públicas.
4.11.1.4: Comparación entre la computación en la nube y el centro de datos

Los términos "centro de datos" y "computación en la nube" a menudo se usan de


manera incorrecta. Estas son las definiciones correctas de centro de datos y
computación en la nube:

Centro de datos: Generalmente, consiste en una instalación de almacenamiento y


procesamiento de datos gestionados por un departamento de TI interno o arrendado
fuera de las instalaciones.

Computación en la nube: Generalmente, consiste en un servicio fuera de las


instalaciones que ofrece acceso a pedido a un grupo compartido de recursos
informáticos configurables. Estos recursos se pueden aprovisionar y lanzar rápidamente
con un esfuerzo de administración mínimo.

La computación en la nube es posible gracias a los centros de datos. Un centro de


datos es una instalación utilizada para alojar sistemas de computación y componentes
relacionados. Un centro de datos puede ocupar una habitación en un edificio, un piso o
más, o un edificio entero. Por lo general, la creación y el mantenimiento de centros de
datos son muy costosos. Por esta razón, solo las grandes organizaciones utilizan
centros de datos privados creados para alojar sus datos y proporcionar servicios a los
usuarios. Las organizaciones más pequeñas, que no pueden costear el mantenimiento
de su propio centro de datos privado, pueden reducir el costo total de propiedad
mediante el alquiler de servicios de servidor y almacenamiento a una organización en la
nube con un centro de datos más grande.

A menudo, la computación en la nube es a menudo un servicio proporcionado por los


centros de datos, como se muestra en la Figura 1.

Figura 1: Servicios del centro de datos


Los proveedores de servicios en la nube utilizan los centros de datos para sus servicios
en la nube y sus recursos basados en la nube. Para garantizar la disponibilidad de los
servicios de datos y los recursos, a menudo los proveedores mantienen espacios en
varios centros de datos remotos.
4.11.1.5
4.11.2.1: Computación en la nube y virtualización

Los términos “computación en la nube” y “virtualización” suelen usarse indistintamente;


Sin embargo, significan diferentes cosas. La virtualización es la base de la computación
en la nube. Sin ella, la computación en la nube más ampliamente utilizada no sería
posible.

La computación en la nube separa la aplicación del hardware. La virtualización separa


el SO del hardware. Los diferentes proveedores ofrecen servicios en la nube virtuales
que pueden proveer dinámicamente los servidores según sea necesario. Por ejemplo,
el servicio web Amazon Elastic Compute Cloud (Amazon EC2) proporciona una manera
simple para que los clientes proporcionen dinámicamente los recursos informáticos que
necesitan. Estas instancias virtualizadas de los servidores se crean a pedido en el EC2
de Amazon.
4.11.2.2: Servidores dedicados

Para poder apreciar completamente la virtualización, primero es necesario entender un


poco parte de la historia de la tecnología de los servidores. Históricamente, los
servidores empresariales consistían en un sistema operativo (SO) del servidor, como
Windows Server o Linux Server, instalado en el hardware específico, como se muestra
en la Figura 1. Toda la RAM, la potencia de procesamiento y todo el espacio del disco
duro de un servidor se dedicaban al servicio proporcionado (por ejemplo, red, servicios
de correo electrónico, etc.).

Figura 1: Servidores dedicados

El principal problema con esta configuración es que cuando falla un componente, el


servicio proporcionado por este servidor no se encuentra disponible. Esto se conoce
como punto único de falla. Otro problema era que los servidores dedicados eran
infrautilizados. A menudo, los servidores dedicados estaban inactivos durante largos
períodos de tiempo, esperando hasta que hubiera una necesidad de ofrecer un servicio
específico que estos proporcionaban. Estos servidores malgastaban energía y
ocupaban más espacio del que estaba garantizado por la cantidad de servicio. Esto se
conoce como proliferación de servidores.
4.11.2.3: Virtualización de servidores

La virtualización de servidores saca provecho de los recursos inactivos y consolida el


número de servidores requeridos. Esto también permite que múltiples sistemas
operativos existan en una sola plataforma de hardware.

Por ejemplo, en la Figura 1, los ocho servidores dedicados anteriores se consolidaron


en dos servidores utilizando hipervisores para admitir instancias virtuales múltiples de
los sistemas operativos.

Figura 1: Instalación del SO hipervisor

El hipervisor es un programa, un firmware o un hardware que suma una capa de


abstracción a la parte superior del hardware físico real. La capa de abstracción se utiliza
para crear máquinas virtuales que tienen acceso a todo el hardware de la máquina
física, como CPU, memoria, controladores de disco y NIC. Cada una de esas máquinas
virtuales ejecuta un sistema operativo completo y separado. Con la virtualización, las
empresas ahora pueden consolidar el número de servidores. Por ejemplo, no es raro
que 100 servidores físicos se consoliden como máquinas virtuales sobre los 10
servidores físicos que utilicen hipervisores.
El uso de la virtualización normalmente incluye redundancia para brindar protección
desde un punto sencillo de falla. La redundancia se puede implementar de diferentes
maneras. Si falla el hipervisor, se puede reiniciar la VM en otro hipervisor. Además, la
misma VM se puede ejecutar en dos hipervisores simultáneamente copiando las
instrucciones de RAM y de CPU entre estos. Si falla un hipervisor, la VM continúa
ejecutándose en el otro supervisor. Los servicios que se ejecutan en las VM también
son virtuales y se pueden instalar o deshabilitar dinámicamente, según sea necesario.
4.11.2.4: Ventajas de la virtualización

Una de las ventajas más importantes de la virtualización es un menor costo total:

Se necesitan menos equipos: La virtualización permite la consolidación de los


servidores, que requiere menos servidores físicos, menos dispositivos de red y menos
infraestructura de soporte. También significa menores costos de mantenimiento.

Se consume menos energía: La consolidación de los servidores reduce los costos de


energía y de refrigeración mensuales. El consumo reducido ayuda a las empresas a
alcanzar una huella de carbono más pequeña.

Se requiere menos espacio: La consolidación de servidores con la virtualización


reduce la huella general del centro de datos. Menos servidores, dispositivos de red y
racks reducen la cantidad de espacio de piso requerido.

Estos son los beneficios adicionales de la virtualización:

Creación de prototipos más sencilla: Se pueden crear rápidamente laboratorios


autónomos que funcionen en redes aisladas para probar y crear prototipos de
implementación de redes. Si se comete un error, un administrador puede volver
simplemente a una versión anterior. Los entornos de prueba pueden estar en línea,
pero deben estar aislados de los usuarios finales. Una vez completada la prueba, se
pueden implementar los servidores y los sistemas.

Aprovisionamiento más rápido de servidores: Crear un servidor virtual es mucho


más rápido que el aprovisionamiento de un servidor físico.

Mayor tiempo de actividad del servidor: La mayoría de las plataformas de


virtualización de servidores ahora ofrecen funciones avanzadas redundantes con
tolerancia a fallas, como la migración en vivo, la migración de almacenamiento, la alta
disponibilidad y la programación distribuida de recursos. También admiten la capacidad
de mover una máquina virtual de un servidor a otro.

Recuperación tras un desastre mejorada: La virtualización ofrece soluciones


avanzadas de continuidad de los negocios. Brinda la capacidad de abstracción de
hardware de modo que el sitio de recuperación ya no necesite tener hardware que sea
idéntico al hardware del entorno de producción. La mayoría de las plataformas de
virtualización de servidores de la empresa también tienen software que puede ayudar a
probar y automatizar las fallas antes de que suceda un desastre.

Soporte heredado: La virtualización puede extender la vida útil de los OSS y de las
aplicaciones, y esto brinda más tiempo a las organizaciones para migrar a nuevas
soluciones.
4.11.2.5: Capas de abstracción

Para ayudar a explicar cómo funciona la virtualización, es conveniente utilizar capas de


abstracción en arquitecturas de PC. Un sistema de computación consta de las capas de
abstracción siguientes, como se muestra en la Figura 1:

 Servicios
 SO
 Firmware
 Hardware

Figura 1: Capas de abstracción de la arquitectura de PC

En cada una de estas capas de abstracción, se utiliza algún tipo de código de


programación como interfaz entre la capa inferior y la capa superior. Por ejemplo, el
lenguaje de programación C se suele utilizar para programar el firmware que accede al
hardware.
En la Figura 2, se muestra un ejemplo de virtualización. Un hipervisor se instala entre el
firmware y el OS. El hipervisor puede admitir varias instancias de SO.

Figura 2: Capas de abstracción virtuales de la arquitectura


4.11.2.6: Hipervisores de tipo 2

Un hipervisor es un software que crea y ejecuta instancias de VM. La computadora, en


la que un hipervisor está ejecutando una o más VM, es un equipo host. Los hipervisores
de tipo 2 también se denominan hipervisores alojados. Esto se debe a que el hipervisor
está instalado en el SO existente, como Mac OS X, Windows o Linux. Luego, una o
varias instancias adicionales del SO se instalan en el hipervisor, como se muestra en la
Figura 1.

Figura 1: Hipervisor de tipo 2 (enfoque “alojado”)

Una gran ventaja de los hipervisores de tipo 2 es que el software de la consola de


administración no es necesario.

Los hipervisores de tipo 2 son muy populares entre los consumidores y en las
organizaciones que experimentan con la virtualización. Los hipervisores comunes de
tipo 2 incluyen:

 Virtual PC
 VMware Workstation
 Oracle VM VirtualBox
 VMware Fusion
 Mac OS X Parallels

Muchos de estos hipervisores de tipo 2 son gratuitos. Algunos ofrecen funciones más
avanzadas mediante el pago de una cuota.

Nota: Es importante asegurarse de que el equipo host sea lo suficientemente resistente


para instalar y ejecutar las VM, para que no se quede sin recursos.
4.11.2.7.
4.11.3.1: Hipervisores de tipo 1

Los hipervisores de tipo 1 también se denominan el enfoque de “infraestructura física”


porque el hipervisor está instalado directamente en el hardware. Los hipervisores de
tipo 1 se usan generalmente en los servidores empresariales y los dispositivos de redes
para centros de datos.

Con los hipervisores de tipo 1, el hipervisor se instala directamente en el servidor o en


el hardware de red. Luego, las instancias de un OS se instalan en el hipervisor, como
se muestra en la Figura 1. Los hipervisores de tipo 1 tienen acceso directo a los
recursos de hardware; por lo tanto, son más eficaces que las arquitecturas alojadas.

Los hipervisores de tipo 1 mejoran la escalabilidad, el rendimiento y la solidez.

Figura 1: Hipervisor de tipo 1 (enfoque de "infraestructura física")

Entre los hipervisores de tipo 1 más populares, se incluyen:

 Citrix XenServer
 Microsoft Hyper-V 2008/2012
 Oracle VM Server para x86/SPARC
 VMware ESXi
4.11.3.2: Instalación de una VM en un hipervisor

Cuando se instala un hipervisor de tipo 1 y se reinicia el servidor, sólo se muestra la


información básica, como la versión de SO, la cantidad de RAM y la dirección IP. Una
instancia de OS no se puede crear a partir de esta pantalla. Los hipervisores de tipo 1
requieren una “consola de administración” para administrar el hipervisor. El software de
administración se utiliza para administrar varios servidores con el mismo hipervisor. La
consola de administración puede consolidar los servidores automáticamente y encender
o apagar los servidores, según sea necesario.

Por ejemplo, suponga que el Servidor1 de la Figura 1 se queda con menos recursos.
Para hacer que haya más recursos disponibles, la consola de administración mueve la
instancia de Windows al hipervisor en el Servidor2.

Figura 1: Traslado de una instancia del sistema operativo entre los hipervisores

La consola de administración proporciona la recuperación ante las fallas de hardware.

Si falla un componente del servidor, la consola de administración mueve la VM a otro


servidor automáticamente y sin inconvenientes.

Algunas consolas de administración también permiten la sobreasignación.

La sobreasignación se produce cuando se instalan varias instancias de SO, pero su


asignación de memoria excede la cantidad total de memoria que tiene un servidor. Por
ejemplo, un servidor tiene 16 GB de RAM, pero el administrador crea cuatro instancias
de SO con 10 GB de RAM asignadas a cada una. Este tipo de asignación excesiva es
habitual porque las cuatro instancias de SO requieren raramente los 10 GB completo de
RAM en todo momento.
4.11.3.3: Virtualización de la red

La virtualización del servidor oculta los recursos del servidor (por ejemplo, la cantidad y
la identidad de los servidores físicos, de los procesadores y del SO) de los usuarios del
servidor. Esta práctica puede crear problemas si el centro de datos está utilizando las
arquitecturas de red tradicionales.

Por ejemplo, las LAN virtuales (VLAN) utilizadas por las VM se deben asignar al mismo
puerto de switch que el servidor físico que ejecuta el hipervisor. Sin embargo, las VM
son trasladables, y el administrador de la red debe poder agregar, descartar y cambiar
los recursos y los de la red. Este proceso es difícil de hacer con los switches de red
tradicionales.

Otro problema es que los flujos de tráfico difieren considerablemente del modelo
cliente-servidor tradicional. Generalmente, un centro de datos tiene una cantidad
considerable de tráfico que se intercambia entre los servidores virtuales (denominado
"tráfico entre nodos"). Estos flujos cambian en la ubicación y la intensidad en el tiempo,
lo que requiere un enfoque flexible a la administración de recursos de red.

Las infraestructuras de red existentes pueden responder a los requisitos cambiantes


relacionados con la administración de los flujos de tráfico utilizando las configuraciones
de calidad de servicio (QoS) y de ajustes de nivel de seguridad para los flujos
individuales. Sin embargo, en empresas grandes que utilizan equipos de varios
proveedores, cada vez que se activa una nueva VM, la reconfiguración necesaria puede
llevar mucho tiempo.

¿Podría la infraestructura de red también beneficiarse de la virtualización? Si esto es


así, ¿de qué manera podría hacerlo?

La respuesta se encuentra en la manera en la que un dispositivo de red funciona


mediante un plano de datos y un plano de control.
4.11.3.4.
Quizlet: Nube y virtualización

1. Una capa de abstracción agregada sobre el hardware físico que permite la creación
de máquinas virtuales que tienen acceso a todo el hardware de la máquina física
como CPU, memoria, controladores de disco y NIC
Hipervisor

2. Se requieren menos equipos, se consume menos energía y se requiere menos


espacio.
¿Cuáles son las tres maneras en que la virtualización ayuda a reducir los costos?

3. Un proceso que permite que varias instancias de un sistema operativo se ejecuten


en un único servidor de hardware
Virtualización

4. Prototipos más fáciles, aprovisionamiento más rápido de los servidores,


recuperación tras un desastre mejorado y soporte para SO antiguos.
Cuáles son cuatro beneficios de la virtualización además de la reducción de costos?

5. Software utilizado para administrar múltiples servidores que utilizan el mismo


hipervisor
Consola de administración

6. Tráfico que se intercambia entre los servidores virtuales en un centro de datos


Tráfico entre nodos

7. Cuatro tipos de nubes principales


Nubes públicas, nubes privadas, nubes híbridas y nubes personalizadas

8. Una instalación de almacenamiento y procesamiento de datos dirigida por un


departamento de TI interno o arrendada fuera del sitio
Centro de datos

9. Un hipervisor que se instala directamente en un servidor o un hardware de red


Hipervisor de tipo 1

10. Un servicio fuera de las instalaciones que ofrece acceso a pedido a un grupo
compartido de recursos informáticos configurables. Estos recursos se pueden
aprovisionar y liberar rápidamente con un esfuerzo mínimo de administración.
Computación en la nube

11. Software como servicio (SaaS), plataforma como servicio (PaaS) e infraestructura
como servicio (IaaS)
Tres servicios en la nube principales según la definición del NIST.

12. Activa el acceso a los datos de la organización en cualquier momento y en cualquier


lugar. (2) Optimiza las operaciones de TI de una organización mediante la
suscripción a servicios necesarios únicamente. (3) Elimina o reduce la necesidad de
equipos, mantenimiento, y administración de TI en el sitio. (4) Reduce el costo de
necesidades de equipos, energía, requisitos físicos de la planta y la capacitación del
personal. (5) Activa respuestas rápidas a los crecientes requisitos de volumen de
datos
Ventajas de la computación en la nube

13. Un hipervisor que se instala sobre un SO existente


Hipervisor de tipo 2
4.12.1.1: Plano de control y plano de datos

Un dispositivo de red contiene los siguientes planos:

Plano de control: Generalmente, esto se considera como el cerebro de un dispositivo.


Se utiliza para tomar decisiones de reenvío. El plano de control contiene los
mecanismos de reenvío de ruta de capa 2 y capa 3, como las tablas de vecinos de
protocolo de routing y las tablas de topología, las tablas de routing IPv4 e IPv6, STP, y
la tabla ARP. La información que se envía al plano de control es procesada por la CPU.

Plano de datos: Este plano, también denominado "plano de reenvío", generalmente es


la estructura de switch que conecta los diversos puertos de red en un dispositivo. El
plano de datos de cada dispositivo se utiliza para reenviar los flujos de tráfico. Los
routers y los switches utilizan la información del plano de control para reenviar el tráfico
entrante desde la interfaz de egreso correspondiente. Por lo general, la información del
plano de datos es procesada por un procesador especial del plano de datos, como un
procesador de señal digital (DSP) sin que se involucre a la CPU.

El ejemplo de la Figura 1 muestra cómo Cisco Express Forwarding (CEF) utiliza el


plano de control y el plano de datos para procesar los paquetes.

Figura 1: Cisco Express Forwarding (CEF), plano de control y plano de datos

CEF es una tecnología de switching de IP de capa 3 que permite que el reenvío de los
paquetes ocurra en el plano de datos sin que se consulte el plano de control.
En CEF, la tabla de routing del plano de control rellena previamente la tabla de base de
información de reenvío (FIB) de CEF en el plano de datos. La tabla ARP del plano de
control rellena previamente la tabla de adyacencia. Luego, los paquetes son reenviados
directamente por el plano de datos basado en la información incluida en la FIB y en la
tabla de adyacencia, sin necesidad de consultar la información en el plano de control.

Para virtualizar la red, un controlador centralizado realiza y elimina la función del plano
de control de cada dispositivo, como se muestra en la Figura 2. El controlador
centralizado comunica las funciones del plano de control a cada dispositivo. Cada
dispositivo ahora puede enfocarse en el envío de datos mientras el controlador
centralizado administra el flujo de datos, mejora la seguridad y proporciona otros
servicios.

Figura 2: Plano de control centralizado


4.12.1.2: Virtualización de la red

Hace más de una década, VMware desarrolló una tecnología de virtualización que
permitía a un SO host admitir uno o más SO clientes. La mayoría de las tecnologías de
virtualización ahora se basan en esta tecnología. La transformación de los servidores
exclusivos para los servidores virtualizados se ha adoptado y se implementa
rápidamente en el centro de datos y las redes empresariales.

Se han desarrollado dos arquitecturas de red principales para admitir la virtualización de


la red:

Redes definidas por software (SDN): Una arquitectura de red definida por software
que virtualiza la red.

Infraestructura centrada en aplicaciones (ACI) de Cisco: Una solución de hardware


diseñada específicamente para la integración de computación en la nube y
administración de centros de datos.

Estas son otras tecnologías de virtualización de redes, algunas de las cuales se


incluyen como componentes en SDN y ACI:

OpenFlow: Este enfoque se desarrolló en la Universidad Stanford para administrar el


tráfico entre los routers, los switches, los puntos de acceso inalámbrico y un
controlador. El protocolo OpenFlow es un elemento básico en el desarrollo de
soluciones de SDN.

OpenStack: Este enfoque es una plataforma de virtualización y organización disponible


para desarrollar entornos de nube escalables y proporcionar una infraestructura como
una solución (IaaS) de servicio. OpenStack se usa frecuentemente en conjunto con
Cisco ACI.

La organización en la red es el proceso para automatizar el aprovisionamiento de los


componentes de red como servidores, almacenamiento, switches, routers y
aplicaciones.

Otros componentes: Otros componentes incluyen la interfaz a Routing System (I2RS),


la interconexión transparente de varios enlaces (TRILL), Cisco FabricPath (FP) e IEEE
802.1aq Shortest Path Bridging (SPB).
4.12.1.3: Arquitectura SDN

En un router o una arquitectura de switches tradicionales, el plano de control y las


funciones del plano de datos se producen en el mismo dispositivo. Las decisiones de
routing y el envío de paquetes son responsabilidad del sistema operativo del dispositivo.

Las redes definidas por software (SDN) son una arquitectura de red que se desarrolló
para virtualizar la red. Por ejemplo, las SDN pueden virtualizar el plano de control.

También conocidas como SDN basadas en controladores, las SDN mueven el plano de
control desde cada dispositivo de red a una inteligencia de la red central y una entidad
de las políticas de fabricación denominada controlador de SDN. Las dos arquitecturas
se muestran en la Figura 1.

Figura 1: Arquitecturas tradicionales y de SDN

El controlador de SDN es una entidad lógica que permite que los administradores de
red administren y determinen cómo el plano de datos de switches físicos y virtuales de
los routers debe administrar el tráfico de red. Coordina, media y facilita la comunicación
entre las aplicaciones y los elementos de red.

El marco de SDN se ilustra en la Figura 2. Observe el uso de interfaces de


programación de aplicaciones (API) dentro del marco de SDN. Una API es un conjunto
de solicitudes estandarizadas que definen la forma adecuada para que una aplicación
solicite servicios de otra aplicación. El controlador de SDN usa los API ascendentes
para comunicarse con las aplicaciones ascendentes. Estos administradores de red de
ayuda de API forman el tráfico e implementan los servicios. El controlador de SDN
también utiliza interfaces API descendentes para definir el comportamiento de los
switches y routers virtuales descendentes. OpenFlow es la API original descendente
ampliamente implementada. Open Networking Foundation es responsable de mantener
el estándar de OpenFlow.
Nota: El tráfico en un centro de datos moderno se describe como (en sentido) vertical
(que se produce entre los usuarios del centro de datos externos y los servidores del
centro de datos) y (en sentido) transversal (que se produce entre los servidores del
centro de datos).

Figura 2: Marco de SDN

Para obtener más información sobre SDN, OpenFlow y Open Networking Foundation,
visite: https://www.opennetworking.org/sdn-resources/sdn-definition (Enlaces a un sitio
externo.) Enlaces a un sitio externo
4.12.1.4.
4.12.2.1: Controlador SDN y operaciones

El controlador de SDN define los flujos de datos que ocurren en el flujo de datos de las
SDN. Un flujo es una secuencia de paquetes que atraviesan una red que comparten un
conjunto de valores de campo del encabezado. Por ejemplo, un flujo puede consistir en
todos los paquetes con las mismas direcciones IP de origen y de destino, o todos los
paquetes con el mismo identificador de VLAN.

Cada flujo que atraviesa la red debe obtener primero un permiso del controlador de
SDN, que verifica que la comunicación sea permisible según la política de red. Si el
controlador permite un flujo, calcula una ruta para que tome el flujo y agrega una
entrada para ese flujo en cada uno de los switches que están a lo largo de la ruta.

El controlador realiza todas las funciones complejas. El controlador completa las tablas
de flujo, y los switches administran las tablas de flujo.

En la Figura 1, un controlador de SDN se comunica con los switches compatibles con


OpenFlow utilizando el protocolo OpenFlow. Este protocolo utiliza Transport Layer
Security (TLS) para enviar de manera segura las comunicaciones del plano de control a
través de la red. Cada switch de OpenFlow se conecta con otros switches de
OpenFlow. También pueden conectarse a los dispositivos de usuarios finales que
forman parte de un flujo de paquetes.
Figura 1: Controlador SDN

Dentro de cada switch, se utiliza una serie de tablas implementadas en el hardware o el


firmware para administrar flujos de paquetes a través del switch. Para el switch, un flujo
es una secuencia de paquetes que coincide con una entrada específica en una tabla de
flujo. Las tablas sirven para lo siguiente:

Tabla de flujo: Esta tabla asigna los paquetes entrantes a un flujo determinado y
especifica las funciones que deben realizarse en los paquetes. Puede haber tablas de
flujo múltiples que funcionan a modo de canalización.

Tabla de medidor: Esta tabla activa una variedad de acciones relacionadas con el
funcionamiento en un flujo.

Una tabla de flujo puede dirigir un flujo a una tabla de grupos, que puede alimentar
una variedad de acciones que afecten a uno o más flujos.
4.12.2.2: Infraestructura centrada en aplicaciones de Cisco

Muy pocas organizaciones tienen realmente el deseo o las habilidades para programar
la red utilizando las herramientas de SDN. Sin embargo, la mayoría de las
organizaciones desea automatizar la red, acelerar la implementación de aplicaciones y
alinear sus infraestructuras de TI para cumplir mejor con los requisitos empresariales.

Cisco desarrolló la Infraestructura centrada en aplicaciones (ACI) para alcanzar los


siguientes objetivos de maneras más avanzadas y más innovadoras que antes los
enfoques de SDN.

ACI es una arquitectura de red de centro de datos desarrollada por Insieme y adquirida
por Cisco en 2013.

Cisco ACI es una solución de hardware diseñada específicamente para la integración


de la computación en la nube y de la administración de centros de datos. En un nivel
alto, el elemento de políticas de la red se elimina del plano de datos. Esto simplifica el
modo en que se crean redes del centro de datos.

Para obtener más información sobre las diferencias entre SDN y ACI, visite:
http://blogs.cisco.com/datacenter/is-aci-really-sdn-one-point-of-view-to-clarify-the-
conversation

Para obtener más información sobre los aspectos básicos de ACI, vea el siguiente
video de Cisco TechWise:

https://www.youtube.com/watch?v=l75B6D9xyMQ

También podría gustarte