Está en la página 1de 39

Virtualización

Debido a las limitaciones de los servidores x86,


muchas organizaciones de TI se ven obligadas a
implementar múltiples servidores, que funcionan
muy por debajo de su capacidad, a fin de responder
a las necesidades actuales de almacenamiento y
procesamiento.

Esta situación genera una gran ineficiencia y unos


costes operativos excesivos
Objetivo:
- Aprovechar de forma mas eficiente
los recursos físicos disponibles.
- Consolidar servidores físicos,
Menos servidores que hacen mas
tareas
- Redistribución automática de las
cargas de trabajo entre servidores
físico.

Ventajas de la virtualización
La virtualización puede mejorar la agilidad, la flexibilidad y la escalabilidad de la
infraestructura de TI, a la vez que permite disfrutar de unos ahorros importantes. Algunas
ventajas de la virtualización, como la mayor movilidad de las cargas de trabajo, el aumento
del rendimiento y de la disponibilidad de los recursos o la automatización de las
operaciones, simplifican la gestión de la infraestructura de TI y permiten reducir los costes
de propiedad y operativos.
Un hipervisor, también conocido como gestor de
máquinas virtuales (VMM, Virtual Machine
Manager) es un programa que permite que
diferentes sistemas operativos compartan
recursos alojados bajo el mismo hardware,
conocido como host.

De esta forma, aparentemente cada sistema


operativo utiliza para sí los recursos (memoria,
procesador, etc.) del “anfitrión” o host, aunque en
realidad es el hipervisor el que controla dichos
recursos y los distribuye entre los “invitados” (las
máquinas virtuales) según las necesidades de
cada uno y sin que interfieran entre ellos.
Hipervisor de tipo I:

Este tipo de hipervisor se despliega como una instalación bare-


metal. Esto significa que lo primero que se instala en un servidor
como sistema operativo será el hipervisor. La ventaja de este
software es que el hipervisor se comunicará directamente con el
hardware del servidor físico. Esos recursos se paravirtualizan y se
entregan a las máquinas virtuales en ejecución. Este es el método
preferido para muchos sistemas de producción.

Cada Computadora se instalar el SO a la maquina virtual y después


la aplicación
Monolíticos: son hipervisores que emulan hardware para sus máquinas
virtuales.
El proceso que sigue una llamada a hardware en un sistema virtualizado
usando un hipervisor de tipo monolítico es:
1) El hardware emulado debe interceptar la llamada.
2) El VMM redirige estas llamadas hacia los drivers de dispositivo que operan
dentro del hipervisor, lo cual requiere de numerosos cambios de contexto en el
código de la llamada.
3) Los drivers del hipervisor en rutan la llamada hacia el dispositivo físico.
Este funcionamiento obliga a desarrollar drivers específicos para el hipervisor
de cada componente hardware.

MicroKernel: en esta aproximación el hipervisor se reduce a una capa de


software muy sencilla, cuya única funcionalidad es la de particionar el sistema
físico entre los diversos sistemas virtualizados.
Los hipervisores de microkernel no requieren de drivers específicos para
acceder al hardware.

En las particiones hija se utilizan drivers sintéticos, que son simplemente


enlaces a los drivers reales ubicados en la partición primaria.

De esta manera los hipervisores de microkernel no sólo aumentan el


rendimiento al reducir el código intermedio y el número de cambios de
contexto necesarios, sino que también aumentan la estabilidad de los sistemas,
al haber menos componentes, y sobre todo la seguridad, al reducir la superficie
de ataque del hipervisor.
Hipervisor de tipo II
Este modelo también se conoce como un
hipervisor alojado (“hosted”).

El software no está instalado sobre el “metal


desnudo”, sino que se carga sobre un sistema
operativo que ya está funcionando.

Por ejemplo, un servidor que ejecuta Windows


Server 2008R2 puede tener VMware
Workstation 8 instalado por encima de ese
sistema operativo. Aunque los recursos tienen
que dar un salto adicional cuando pasan a
través de la máquina virtual, la latencia es
mínima y con las mejoras del software hoy en
día el hipervisor puede funcionar de manera
óptima.
Hipervisores híbridos: en este
modelo tanto el sistema operativo
anfitrión como el hipervisor
interactúan directamente con el
hardware físico.
Las máquinas virtuales se ejecutan en
un tercer nivel con respecto al
hardware, por encima del hipervisor,
pero también interactúan
directamente con el sistema
operativo anfitrión.
Retos de la Virtualización:

Índices de utilización. En un período corto de tiempo, se ha incrementado la proporción de las máquinas virtuales en
relación con las máquinas físicas a medida que aparecen servidores más potentes cada año en el mercado por
aproximadamente el mismo precio.

Consolidación de Recursos. La virtualización permite la consolidación de múltiples recursos de TI


Más allá de la consolidación de almacenamiento, la virtualización proporciona una oportunidad para consolidar la
arquitectura de sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso
procesos de negocios, resultando en ahorros de costo y mayor eficiencia.

Costo menor energía. La electricidad requerida para que funcionen los centros de datos de clase empresarial ya no
está disponible en suministros ilimitados, y el costo está en una espiral ascendente. Utilizando virtualización para
consolidar hace posible cortar el consumo total de energía y ahorrar dinero de una manera significativa.

Ahorros de espacio. La virtualización puede aliviar la tensión mediante la consolidación de muchos sistemas virtuales
en menos sistemas físicos

Recuperación de desastre/continuidad del negocio. La virtualización puede incrementar la disponibilidad de los


índices del nivel de servicio en general y proporcionar nuevas opciones de soluciones para la recuperación de
desastre

Costos de operación reducidos.. La virtualización puede reducir la carga de trabajo administrativo, y cortar el total de
costos de operación
Ventajas de la Virtualización :

• Rápida incorporación de nuevos recursos para los servidores virtualizados.


• Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de consolidación
logrado
• Administración global centralizada y simplificada.
• Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de toda la capacidad de
procesamiento, memoria, red y almacenamiento disponible en nuestra infraestructura
• Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la creación de entornos de
test que permiten poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el proceso
de las pruebas.
• Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas virtuales.
• No sólo aporta el beneficio directo en la reducción del hardware necesario, así como de sus costos asociados
• Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un servidor físico a otro, eliminando
la necesidad de paradas planificadas por mantenimiento de los servidores físicos.
• Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de recursos,
garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y proporcionando un
consumo de recursos homogéneo y óptimo en toda la infraestructura.
• Alto grado de satisfacción general
Qué es la virtualización de red (NV)?

La virtualización de red (NV) hace referencia a la desvinculación de los recursos de red que tradicionalmente se
proporcionaban en forma de hardware.

La virtualización de red puede combinar varias redes físicas en una red virtual, mediante software o dividir una red
física en redes virtuales independientes y separadas.

Por qué elegir la virtualización de red?

La virtualización de red desvincula los servicios de


red del hardware subyacente y permite el
aprovisionamiento virtual de toda la red.
Los recursos de la red física, tales como
conmutadores y enrutadores, se agrupan y están
accesibles para cualquier usuario a través de un
sistema de gestión centralizado.
La virtualización de red también hace posible la
automatización de muchas tareas administrativas, lo
que reduce los errores manuales y el tiempo de
aprovisionamiento.
Puede aumentar la productividad y la eficiencia de
la red.
Virtual LAN (VLAN): Su funcionamiento consiste en un método para crear redes independientes a nivel lógico
mediante la compartición de la red a nivel físico.

Su uso permite segmentar lógicamente los dominios de difusión, controlando la interacción entre los dispositivos
de diferentes segmentos de red. Virtual IP: constituye una dirección IP que no está conectada a un computador
específico o tarjeta de red de un dispositivo.

Las VIP son asignadas a dispositivos de red que se encuentran en el camino del tráfico de la red.
Todos los paquetes entrantes son dirigidos a la IP virtual, pero luego redirigidos a la interface de red del
dispositivo receptor.

Red privada virtual (Virtual Private Network, VPN): una VPN compone una red de comunicación privada usada
para la transmisión de datos de forma confidencial, íntegra y segura sobre una red pública.

El tráfico es transportado sobre un medio de red altamente inseguro, como internet, por lo que se crea un canal
seguro para la información sensitiva a ser transmitida de un sitio a otro.
Virtualización de escritorios:

Implementar los escritorios como un servicio gestionado permite a las organizaciones de TI responder más rápido a las
necesidades cambiantes del entorno de trabajo y a las nuevas oportunidades.

Los escritorios y las aplicaciones virtualizados también pueden distribuirse de forma rápida y sencilla a sucursales,
empleados subcontratados o en otros países y trabajadores móviles que utilizan tabletas iPad y Android.

Mediante esta técnica, el usuario utiliza en lugar de


su computador de escritorio un thinclient, el cual es
un dispositivo que depende primeramente del
servidor central para las tareas de procesamiento,
donde principalmente se enfoca en transportar tanto
la entrada como la salida entre el usuario y el
servidor remoto.

El thinclient está constituido de monitor, teclado y


mouse para su interacción con el servidor.
Virtualización de almacenamiento.

El término virtualización del almacenamiento por lo general se refiere a la abstracción del almacenamiento
físico para que pueda ser presentado de una manera que difiere de la realidad.
Por ejemplo, varios discos físicos pueden ser presentados por la capa de abstracción como un único disco,
en lugar de como una colección de discos más pequeños.

La virtualización de almacenamiento se entiende como la agrupación e los recursos del almacenamiento


físico y almacenamiento lógico, de manera que la gestión de múltiples dispositivos de almacenamiento en
red se simplifica al reunirlos en un único almacén, administrado desde una única consola central.

Este método es muy común en entornos de red de área de almacenamiento, mejor conocidos
como SAN (Storage Area Network). Una SAN es escalable casi al límite y está diseñada para conectar
servidores, matrices de discos y librerías de soporte, por lo que su gestión se complica exponencialmente.
Virtualización de memoria
Se trata de una forma de desacoplar la memoria del servidor para proporcionar una función compartida, distribuida
o en red.

Mejora el rendimiento proporcionando una mayor capacidad de memoria sin añadir memoria física. Una parte de la
unidad de disco sirve como una extensión de la memoria principal.

Virtualización de software
Proporciona al ordenador principal la capacidad de ejecutar y crear uno o más entornos virtuales.
Se utiliza para habilitar un sistema informático completo con el fin de permitir que un sistema operativo invitado se
ejecute. Por ejemplo, para permitir que Linux funcione como un invitado que ejecuta de forma nativa un sistema
operativo Microsoft Windows (o viceversa, ejecutando Windows como invitado en Linux).

Virtualización de datos
Sin añadir detalles técnicos, podemos decir que permite manipular fácilmente datos y saber cómo se formatean o
dónde se encuentran físicamente.
Reduce los errores de datos y la carga de trabajo.
Sizing
Factores que afectan al dimensionamiento
Todos los factores que se muestran en la siguiente ilustración contribuyen al dimensionamiento.
Cuanta más información detallada se recopile, con mayor precisión podrá determinar el
dimensionamiento. Es probable que el dimensionamiento de hardware, sin datos
complementarios, sea impreciso.
El requisito mínimo absoluto para todos los datos necesarios es la carga de línea de transacción
máxima por hora.
A medida que comprenda la carga que afecta a su infraestructura, también debe entender más detalles acerca de estos
factores:

Transacciones - Normalmente, las transacciones tienen ciertos máximos durante el día/semana. Esto depende sobre todo
del tipo de transacción.

Número de usuarios simultáneos - El número de usuarios simultáneos es el segundo factor de dimensionamiento más
importante.

No podrá obtener estimaciones del dimensionamiento de forma segura en base al número de usuarios simultáneos, por lo
que si estos son los únicos datos que tiene disponibles, calcule un número aproximado y luego vuelva a visitar esto cuando
tenga más datos.

Una definición precisa de usuario simultáneo significa que:


Los usuarios denominados no son usuarios simultáneos.
Los usuarios simultáneos son siempre un subconjunto de usuarios denominados.
La carga de trabajo máxima define la concurrencia máxima para el dimensionamiento.

Los criterios para los usuarios simultáneos son que el usuario cumpla todos los criterios siguientes:
Haber iniciado sesión.
Trabajar con transacciones/consultas a la hora del recuento.
No tener una sesión inactiva.
•Composición de datos - Es principalmente acerca de cómo el sistema se ajustará y configurará.

Por ejemplo, cuántas entidades jurídicas tendrá, cuántos artículos, cuántos niveles de L. de M. y cómo de compleja
será su configuración de seguridad.

Cada uno de estos factores puede tener un pequeño impacto en el rendimiento, por lo que se pueden compensar
mediante opciones inteligentes cuando se trata de una infraestructura.

•Informes y análisis - Normalmente, estos factores incluyen grandes consultas con distintas bases de datos del
sistema. Comprender y reducir la frecuencia cuando se ejecutan informes costosos le ayudará a comprender el
impacto de estos.
Ajustar el tamaño del entorno
SQL Server (OLTP)
Dimensionamiento
De 3000 a 15 000 líneas de transacción por hora por núcleo en servidor DB.

Proporción 3:1 de núcleo típico AOS a SQL para el SQL Server principal. Los núcleos adicionales se obligatorios en
función de la configuración de alta disponibilidad elegida.
El procesamiento de operaciones pesadas en la base de datos puede hacer retroceder esto a 2:1.
Los siguientes factores influyen en las variaciones:
Configuración de parámetros en uso.
Niveles de extensiones.
Uso de la funcionalidad adicional, como registro de base de datos y alertas. El registro extremo de base de datos
reducirá aún más el rendimiento por hora por núcleo por debajo de las 3000 líneas.
Complejidad de la composición de datos - Un plan de cuentas sencillo frente a un plan de cuentas fino y
detallado tiene implicaciones en el rendimiento (como un ejemplo).
Caracterización de la transacción.
2 GB a 16 GB de memoria para cada núcleo
Bases de datos auxiliares en servidor DB como Management Reporter y bases de datos de SSRS.
DB temporal = 15% del tamaño de la DB, con tantos archivos como procesadores físicos.
Tamaño y rendimiento de SAN basados en el volumen/uso total de la transacción simultánea.
Alta disponibilidad
Le recomendamos que utilice siempre el SQL Server en un clúster o una configuración de replicación. El segundo
nodo de SQL debe tener el mismo número de núcleos que el nodo principal
Ejemplo :

Network requirements
•The app is designed for networks that have a latency of 250–300 milliseconds (ms) or
less. This latency is the latency from a browser client to the Microsoft Azure datacenter
that hosts the app.

•Bandwidth requirements for the app depend on your scenario. Most typical scenarios
require a bandwidth that is more than 50 kilobytes per second (KBps). However, we
recommend more bandwidth for scenarios that have high payload requirements, such as
scenarios that involve workspaces or extensive customization.
¿Cómo es un servidor blade?

Un servidor blade es un equipo autónomo y compacto que consta de un bastidor de servidores (conocido como
chasis), el cual, alberga numerosas placas de circuitos delgadas y modulares: servidores blade.
Lo servidores blade están específicamente diseñados para aprovechar el espacio, reducir el consumo y simplificar su
mantenimiento.
Este tipo de servidores cuentan con un mayor procesamiento de datos y consumen menos energía, ya que, los
distintos servidores comparten tanto la energía como el enfriamiento. De esta manera, también se disminuyen gastos.

https://buy.hpe.com/es/es/servers/proliant-server-blades/proliant-
bl400c-server-blades/proliant-bl460c-server-blade/hpe-proliant-
bl460c-gen10-server-blade/hpe-proliant-bl460c-gen10-6248-2p-
64gb-r-p204i-b-performance-blade-server/p/P06804-B21
¿Cómo funciona un servidor blade?

Contiene procesadores, memoria, controladores de red integrados, FiberChannel y múltiples adaptadores de


entrada/salida. Todo lo relacionado a conexiones, alimentación y refrigeración se traslada en modo compartido al
chasis que los alberga.

Su diseño modular permite que el servidor blade optimice el rendimiento a la vez que reduce los costos de energía y los
requisitos de tamaño.

En entornos virtualizados y servicios de Cloud Computing, es donde este tipo de servidores generan el mejor
rendimiento y son aprovechados para obtener una mayor eficiencia.
Características técnicas de los servidores blade

Entre las características de los servidores blade, podemos encontrar:

• Al eliminar características innecesarias para realizar trabajos más ligeros, los servidores pueden realizar estas
tareas de forma más eficiente que servidores de más altas especificaciones

• Los bajos consumos de energía y su especial diseño para disipación de calor en los procesadores, reduce los
costes de funcionamiento, con lo que obtenemos un mayor ratio de unidades trabajo de computación

• Los servidores blade están basados en una forma compacta y reducida de circuito integrado con el
procesador, la memoria y el sistema de E/S, lo que permite crear clusters de servidores colocados juntos en
cabinas de chasis, con el consecuente ahorro de espacio en los centros de datos

• Al no contener elementos mecánicos son menos propensos a fallar, por lo que su duración y fiabilidad es
mayor
Ventajas de los servidores blade. Los servidores blade cuentan con múltiples beneficios, los cuales son:

- Mejora la eficiencia operativa


Agiliza la puesta en marcha de nuevos servidores sin detener en ningún momento los servicios asociados.

- Mayor eficacia
Obtiene más potencia de procesamiento en una huella más pequeña (tamaño físico, consumo de energía, enfriamiento y
peso). Esto también significa costos de energía reducidos.

- Manejabilidad
La administración de sistemas es más simple y económica, pues, un servidor blade generalmente viene con herramientas de
administración integradas.

- Flexibilidad
Cableado simplificado y reconfigurable.

- Alta disponibilidad
Es posible añadir y quitar servidores manteniendo los servicios activos. Si un servidor se cae puede ser reemplazado
enseguida.

- Ocupan menos espacio


Se puede tener más potencia de proceso por unidad de espacio en el centro de datos. Con una altura de 4U se pueden
montar hasta 16 servidores en un chasis.
Facilitan la escalabilidad del centro de datos
Gracias a la facilidad de puesta en marcha de nuevos servidores, hacer crecer el centro de datos es solo cuestión de
añadir más servidores blades, sin tener que preocuparse de cableado de conexión o alimentación.

Son más simples de operar


Se gestionan remotamente, sobre todo, en entornos virtualizados y con gestión añadida de los chasis que los albergan. La
ausencia de cableado facilita las tareas de administración física y de conectividad.

Comparten elementos redundantes


Los servidores blade se alojan en uno o más chasis, los cuales, incorporan todos los elementos de refrigeración,
alimentación y conectividad.
Fuentes de alimentación redundantes y extraíbles.
Ventiladores redundantes.
Conmutadores de red con diferentes zonas y redundantes, con todo el cableado incorporado.
Interfaces dedicadas para la conectividad con las unidades redundantes de almacenamiento.
Máxima eficiencia en entornos virtualizados

El entorno virtualizado facilita la administración y gestión de los servidores.


Aumento de flexibilidad y uso de la infraestructura virtual.
Aumento de la densidad de servidores por chasis.
Administración más flexible de recursos de forma dinámica, individual o global en el chasis.
Reducción de los tiempos de aprovisionamiento de nuevos servidores.
Eliminación de paradas programadas por problemas, mantenimiento o actualizaciones de hardware.
Migraciones rápidas de máquinas virtuales entre servidores blade.
Optimización de infraestructuras para ofrecer el mejor rendimiento basado en Acuerdos de Nivel de Servicio (ANS o SLA

Los servidores blade son los más compactos y pueden instalarse de manera vertical en un único gabinete para ahorrar
espacio y energía. Son ideales para grandes empresas y centros de datos que requieren mucha más capacidad.

En el mercado existen diferentes marcas que ofrecen servidores blade: HP Enterprise, Dell, Lenovo, IBM, Huawei, entre
otras más.
https://www.shutterstock.com/es/video/clip-13787549-consultant-install-
blade-server-datacenter
Servidores de Alta Disponibilidad

LO QUE NO ES LA ALTA DISPONIBILIDAD

No es contar con buenos servidores.


No es tener discos que repliquen.
No es tener Raid 1, Raid 5 o Raid 10. (Ningún Raid es alta disponibilidad)
No es tener una buena Red
No es tener Backups
No se logra con sistemas de virtualización básicos workstation
No es «NO CAERSE». Alguien con suerte no se le cae el sistema.
¿Qué es HA - High Availability?

El propósito de la Alta disponibilidad (High availability) es que si falla los tres componentes (Host, Red y
almacenamiento) de manera simultánea.

La Alta disponibilidad (HA) migre el servicio en caliente sin intervención humana, y el servicio se restablezca
de manera automática por medio de todo el protocolo de diseño del sistema

El objetivo es que se asegure un cierto grado absoluto de continuidad operacional durante un período de
medición dado.

Disponibilidad se refiere a la habilidad de los usuarios para acceder y usar el sistema.

Si un usuario no puede acceder al sistema se dice que está no disponible.

El término tiempo de inactividad (downtime) o tiempo fuera de línea es usado para definir cuándo el sistema
no está disponible. Así que Alta Disponibilidad es que el sistema está casi siempre arriba gracias a que de
manera anticipada se duplicaron todos los elementos de Servidores, Networking y almacenamiento
eliminando los puntos únicos de fallos y a nivel de Software se usan sistemas inteligentes y automatizados que
restablecen el servicio.
Características de la Alta Disponibilidad

Las principales características de una un Modelo de Alta Disponibilidad deben ser:

• Fiabilidad: los componentes HW y SW del sistema deben ser fiables. Es la parte crítica de una implementación de
Alta Disponibilidad. No se debe escatimar gastos en esta parte si se desea implementar un modelo de Alta
Disponibilidad de forma correcta.

• Recuperación: puede haber muchas opciones para recuperarse de un fracaso si ocurre alguno, es importante
determinar qué tipo de fallos pueden ocurrir y estableces procedimientos para recuperarse antes ellos.

• Detección de errores: si un componente de la arquitectura falla, la rápida detección del mismo minimizará
enormemente el daño producido. La monitorización del estado del servicio es imprescindible para la detección
rápida de los fallos. Continuas operaciones: las actividades del mantenimiento que se realicen sobre el servicio
deben ser transparentes para el usuario.
https://youtu.be/0XwUr33dmE0
La redundancia en Cloud

La Redundacia, es el proceso mediante el que los archivos son almacenados en diferentes lugares una vez que entran
en el sistema.

Es decir, los archivos son copiados al menos en dos lugares al mismo tiempo. Se presenta como una solución a los
problemas de protección y confiabilidad.

En cualquier sistema, la redundancia se encarga de mantener los archivos por duplicado en prevención de posibles
pérdidas o fallos del sistema.
Las velocidades entre servidores en Cloud permiten dotar de Redundancia a los sistemas de almacenamiento.

Cuando un archivo se sube a la Nube, en un instante puede estar replicado en otro lugar, por eso no tiene sentido realizar
copias de seguridad o backups esperando a una hora determinada, consumiendo tiempo y recursos, saturando al
ordenador que las realiza.
El backup tradicional comienza a formar parte del pasado y de conceptos que el Cloud Computing empieza a dejar
obsoletos.
¿Qué es la redundancia?

La redundancia es la repetición de aquellos datos o hardware de carácter crítico que se quiere asegurar ante la
posibilidad de fallos que pudieran surgir debido al desgaste natural del uso ya sea del hardware o software. Se presenta
como una solución a los problemas de protección y confiabilidad. La redundancia es en pocas palabras un respaldo.

La redundancia consiste en asegurar la supervivencia de la red ante un fallo, proporcionándote rutas de datos
alternativas cuando se produce un fallo de enlace y hay dos formas básicas de redundancia que aseguran la
comunicación de datos.

Redundancia activa. Ambos enlaces están activos al mismo tiempo.


Redundancia pasiva. Un enlace está activo y el otro está en modo de espera.
Tipos de redundancia

Redundancia de hardware
Lo que tu proveedor de conectividad a la nube tiene en sus Centros de Datos al final del día no dejan de ser equipos
físicos que también son susceptibles a fallos por miles de razones como desastres naturales. Lo que tu proveedor
debe ofrecerte es la interconexión de Centros de Datos para asegurar que cuando alguno falle, pueda conectarse a
otro.

Redundancia geográfica
Este respaldo proporciona servicios de redundancia geográfica de modo que en el caso de una falla completa del
DataCenter, la información sea desviada a otros servidores ubicados en otro lugar físico a varios kilómetros de
distancia. Así, en caso de que ocurra un desastre natural que afecte al lugar de alojamiento oficial de tu información,
habrá otro disponible en otra ubicación listo para funcionar.
Qué es la tolerancia al fallo de la nube?

Cuando un servicio es tolerante a los fallos, dicho servicio es capaz de responder a cierto grado de errores sin dejar
de ser funcional, es decir que tiene la capacidad de solucionar los problemas que existen, o reemplazar elementos
que no funcionan de forma correcta por otros que si lo hacen.

Un ejemplo puede ser una red local conectada a un switch de muchos puertos alámbricos. Si uno de estos puertos
falla, la red puede seguir operando con el resto de los puertos existentes.

Las soluciones de tolerancia a errores se centran habitualmente en tiempos de espera, retrocesos, barreras de
aislamiento e interruptores.

También podría gustarte