Está en la página 1de 14

GRUPO1

CAPITULO 1: LOS NEGOCIOS, VALOR DE LA VIRTUALIZACION


De vez en cuando un nuevo TI en la tecnología es introducido prometiendo tener
impactos de gran alcance sobre como las organizaciones manejan la tecnología.
Aunque casi siempre hay ventajas, las publicaciones como el despliegue, la
administración, y la dirección general de la tecnología son también
preocupaciones importantes. Solamente hace unos pocos años, el término
virtualización generalmente era reservado para unos miembros del TI que
estuvieron interesados en aplicaciones específicas.
Las soluciones de servidores virtuales han estado alrededor muchos años, pero
ellos a menudo eran relegados a la carrera sobre computadores de escritorio o
sobre unos servidores escogidos dentro de un ambiente.
Como consecuencia de una variedad tanto de negocio como de motivos técnicos,
cosas se han cambiado rápidamente. Hoy, la virtualización del servidor se ha
movido a la vanguardia de opciones de solución para las organizaciones que
examinan la optimización de sus inversiones en el activo de centro de datos. Las
soluciones están disponibles en gran variedad de vendedores y pueden
proporcionar economías de costes dramáticos y ventajas relacionadas. Aunque la
virtualización proporcione numerosas ventajas técnicas y de negocio, las
organizaciones TI deben considerar publicaciones relacionadas con la dirección de
esta tecnología.
Esta guía andará por muchos de los detalles relacionados con las mejores
prácticas para manejar virtualización. El foco será en el entendimiento como y por
qué la virtualización debería ser considerada y una vez un servicio informativo
decide desplegar máquinas virtuales (MVs), como manejarlos mejor. Este capítulo
pondrá la fundación para hablar por qué la virtualización es una tecnología tan
importante. Expresamente, esto cubrirá una descripción de como trabajos de
tecnología virtualización, con detalles relacionados con los tipos de problemas que
virtualización puede ayudar a solucionar. El objetivo es de servir como una
introducción para los asuntos a fondo técnicos explorados en capítulos
posteriores.
UNA BREVE HISTORIA DEL ACCESOS TI
Antes de que usted pueda entender como y por qué la virtualización de tecnología
es tan importante para el futuro de servicios informativos, TI es provechosa de
tomar un informe miran la historia de soluciones informáticas. En los días más
tempranos de informática de negocio, recursos de ordenador primarios en gran
parte fueron centralizados. El procesador central era una CPU estándar y
proporcionada, la memoria, y recursos de almacenaje de una posición central. Los
usuarios finales emplearían que ascendió a grande " cuerdas de extensión " para
proporcionar la entrada y la salida al sistema central.
Este arreglo hizo la dirección relativamente simple para el personal informático;
más bien que administran docenas o cientos de computadores, sólo un sistema
primario central tuvo que ser tenido en cuenta. Como un aparte, seguramente
puede ser argumentado que estos sistemas pusieron en práctica una forma de
virtualización porque el individuo " terminales brutas " podría ser proveído de los
ambientes aislados que fueron repartidos del fondo de recurso total de las
unidades centrales. Desde luego, había limitaciones de un punto de vista de
usuario final, y mirando fijamente en una pantalla a base de texto verde dejo de
ser muy deseado.
El advenimiento del computador de escritorio económico que permitió que los
usuarios finales aumentaran la flexibilidad en la instalación y la configuración de
aplicaciones. El software de escritorio podría aumentar la productividad. Con el
tiempo, los servicios informativos comenzaron a apoyar al cliente-servidor
ambientes calculados. En esta configuración, tanto los computadores de usuario
final como servidores centralizados compartieron la carga del almacenaje de datos
y tratamiento. Los computadores de cliente a menudo enfocaban la interacción de
usuario y la presentación de la información mientras los servidores almacenaron
datos y proporcionaron algunas funciones relacionadas con los negocios. Aunque
hubiera una funcionalidad obvia y ventajas de utilidad, administración y la
dirección se hizo considerablemente más compleja debido a la flexibilidad de
configuración y un número más grande de ordenadores.
Modernas aplicaciones empresariales a menudo tienen muchas dependencias.
Las aplicaciones multi-hilos con regularidad incluyen los componentes que deben
ser ejecutados para diferentes servicios. Por ejemplo, podrían requerir que un
servidor de Web que provea la interacción del usuario. La lógica de negocio podría
ser controlada dentro de una hilera de servidor de aplicación especializada, y el
almacenaje de datos podría ser manejado por una base de datos. De algunos
modos, esta complejidad aumentada proporciona ventajas muy necesarias. El
funcionamiento y la adaptabilidad a menudo son mejorados para distribuir la carga
de trabajo sobre muchos componentes de servidor.
Un empuje más reciente hacia la arquitectura orientada al servicio (SOA) ayuda a
disminuir las dependencias entre aplicaciones. La figura 1.1 proporciona un
resumen de esta evolución con el tiempo.
La figura (El número) 1.1: La evolución de arquitecturas TI con el tiempo.

Lo esencial, sin embargo, es que los modernos ambientes TI son complicados y


tienen muchas " partes móviles " que debe ser manejado por el personal
informático. Añada a esto la necesidad de rápidamente adaptarse a cambios de
negocio mientras tratando con presupuestos disminuidos y reducidos recursos
humanos, y la lista de desafíos es larga. Esta evolución y su ayuda de desafíos
asociada ponen la etapa para el asunto de este capítulo de virtualización de
servidores.
Una Descripción de Virtualización

Aunque el término virtualización a menudo sea oído en el moderno ambiente TI,


ello es importante para tener un entendimiento sólido de la tecnología que está
siendo descrita. Tomado en un sentido general, virtualización se puede aplicar a
muchos componentes diferentes de la infraestructura TI. Por ejemplo, el nivel de
red virtualización podría referirse a la abstracción física enrutadores e interruptores
en fabricas de redes lógicas. Así mismo el objetivo de almacenamiento virtual es
de ocultar la puesta en práctica subyacente física de discos duros y otros
dispositivos y presentar a usuarios solo un gran espacio de almacenamiento.

Aunque esta guía mira varias técnicas de implementación detalladas de


virtualización en capítulos posteriores, primero empezaremos con un ejemplo
básico. Un objetivo principal virtualización de un servidor es permitir a múltiples
sistemas operativos (SOs) y aplicaciones correr sobre una parte de hardware dada
simultáneamente. Cada uno de estos SOS corren dentro de un espacio aislado
conocido como una MV y corren independientemente de los demás. La figura 1.2
proporciona una descripción conceptual de un camino del cual la virtualización del
servidor puede ser puesta en práctica.

La figura 1.2: Una descripción técnica de virtualización del servidor.

Comenzando en la parte inferior del diagrama, la base de esta configuración es el


hardware físico que está sobre el servidor. Esto incluye las CPUs, la memoria,
discos duros, y los componentes de red que son la parte del computador. Esto
también incluye cualquier otro dispositivo físico que podría ser conectado.

Corriendo encima del hardware físico es una base SO. El propósito del SO es el
de coordinar todas las interacciones entre aplicaciones y el hardware subyacente
por el empleo de controladores de dispositivo y otros elementos. Hasta ahora, esto
es la configuración estándar que usted esperaría para cualquier servidor dentro
del centro de datos. En una configuración no-virtualizada, los administradores de
sistemas entonces instalarían y configurarían aplicaciones dentro del SO y
directamente los harían disponibles para el uso.

La figura 1.2 muestra una configuración que incluye una capa de virtualización que
corre dentro de SO del computador. La capa de virtualización corre como una
aplicación o un servicio y asegura la creación de ambientes aislados MV. Cada
una de estas MVS proporciona un computador virtual en el cual un SO separado
puede ser instalado y configurado. El OS y las aplicaciones que son instalados
dentro de la MV son generalmente inconscientes que ellos corren en un ambiente
virtual. Ellos pueden usar la CPU, la memoria, el disco, y conectar una red
recursos tal como si ellos estuvieran sobre un computador físico.

Este sistema nos trae al trabajo del software virtualización. Siempre que los
recursos sean solicitados por una MV, esto es el trabajo de la capa de
virtualización para tener acceso al hardware subyacente físico. El objetivo es de
coordinar una petición de recurso (como la lectura de un archivo del disco) con el
otro simultáneo requiere. Esto previene cualquiera de las MVS de directamente
tener acceso al hardware y permite que la capa de virtualización para coordinar
solicite durante el tiempo de CPU, la memoria física, lecturas de disco y escrituras,
la entrada - salida de red, y otras operaciones.

Terminología de Virtualización

Si el concepto de virtualización es nuevo para usted, podría ser provechoso


repasar unos términos que serán usados en todas partes de esta guía:

Virtualización host:· Virtualización el ordenador principal de anfitrión-A es la


máquina física sobre la cual una plataforma virtual es instalada. Dependiendo el
tipo de virtualización escogido, puede haber exigencias especiales para la
configuración de esta máquina. En los ambientes TI del centro de datos, la opción
más común para una producción virtualización el anfitrión son un servidor montado
en un rack Rack-mounted. En general, sin embargo, más o menos cualquier
computador moderno (incluyendo escritorios y terminales de trabajo) puede ser
usado para apoyar MVS. El número real de MVS que pueden recibir variará
basado en los datos específicos del hardware.

Host SO: El SO primario que corre sobre el hardware virtual saben como el host
SO. Este SO tiene el acceso directo al hardware subyacente y generalmente
contiene los controladores de dispositivo para apoyar todos los dispositivos que
son conectados al sistema. Los usuarios y administradores del sistema pueden
instalar aplicaciones y servicios directamente sobre el SO principal como sea
necesario.

Sin embargo, para razones de funcionamiento, ellos pueden decidir dedicar una
máquina a servicios virtualizados por limitando el número de otros procesos que
podrían competir por recursos.

Virtualización del software – la virtualización del software es responsable de la


creación de ambientes MV y para traducir y coordinar el recurso solicita al SO
principal subyacente. Hay numerosos caminos de los cuales el software virtual
puede ser puesto en práctica, cada uno con su propia terminología. Por ejemplo,
Hipervisores a base de software controladas directamente sobre el hardware del
computador principal y emplea una muy pequeña huella de recurso para el mismo
SO principal. Otra capa media virtual podría ser implementada como una
aplicación o un servicio que corre con el host SO. Los detalles relacionados con
estos accesos serán cubiertos más tarde en esta guía. Por ahora, toda la
información cubierta se aplicará independientemente de como la capa de
virtualización es implementada.

MV-A MV es un ambiente independiente, aislado que es creado según una


solución de virtualización. Es diseñado para parecer al software y aplicaciones
como una máquina física. Como un computador físico, este ambiente tiene un
proceso boot (arranque) estándar y puede tener el acceso a recursos como discos
duros virtuales y adaptadores de red virtuales. Las aplicaciones que son
controladas dentro de un MV son capaces de tener acceso a recursos como
archivos u otros computadores sobre la red. El acceso al hardware físico
subyacente sobre el computador principal es coordinado por el software
virtualizado.

El SO invitado: En la mayor parte de configuraciones, los administradores de


sistemas instalarán nuevo SO dentro de cada MV. Cada SOs son conocidos como
SOs invitados porque ellos corren sobre el SO principal. Las versiones específicas
SO que pueden ser instaladas varían basado en la solución virtualización, pero a
menudo el objetivo es de proporcionar el apoyo a tantos tipos diferentes de SOs
como fuera posible.

Un ejemplo Virtualización

En general, es importante tener presente la distinción entre la terminología de


invitado y el anfitrión. Tanto como ambientes puede controlar el SOs como
aplicaciones, la distinción a menudo es apagada. De hecho, es uno de los
objetivos de virtualización. Para ilustrar una puesta en práctica específica de
virtualización, la Figura 1.3 proporciona un ejemplo basado en Microsoft Virtual
Server 2005 R2.

Figura 1.3 proporciona un ejemplo basado en Microsoft Virtual Server 2005 R2.

En esta figura, el SO principal es el Servidor de Ventanas 2003 R2. Los


administradores de sistemas pueden instalar este SO tal como ellos sobre
cualquier otro computador servidor. Pasos típicos implicarían la configuración del
hardware base, el lanzamiento del proceso de instalación, la instalación de
controladores de dispositivo, instalación de actualizaciones de seguridad, y la
configuración de aplicaciones y servicios.
Después de que el SO principal es instalado y configurado, la capa de
virtualización puede ser instalada. En este caso, Microsoft Virtual Server 2005 R2
es instalado y configurado como un servicio. La instalación estándar incluye el
servicio de virtualización en sí mismo, un sitio Web de administración, y varios
servicios de ayudante. Usando los instrumentos administrativos, los
administradores de sistemas pueden crear y configurar nuevo MVS.

Cada MV inicialmente aparece como un nuevo computador con un disco duro en


blanco. Por lo tanto, el siguiente paso lógico debe instalar al invitado SOs dentro
de cada MV. En este ejemplo, Ventanas XP, el Windows NT 4.0 Server, y el Red
Hat Linux son cada uno instalados en MV por separado. Los tres SOs invitados
pueden correr simultáneamente sobre el mismo hardware y ellos pueden tener
acceso a los recursos que físicamente son conectados al hardware del principal.
Otra vez, esto es sólo un método de puesta en práctica que usa una solución
específica. Pero si el concepto de virtualización es nuevo, usted puede guardar la
arquitectura básica en mente.

Los negocios y desafíos TI

En años recientes, muchos negocios han descubierto el verdadero valor


estratégico de TI. Para ejecutarse satisfactoriamente, la organización entera es
dependiente de su infraestructura TI. Esto no es ningún secreto que los servicios
informativos a menudo son afrontados con muchas coacciones. Ellos a menudo
son empujados para proporcionar más servicios quedándose dentro de
presupuestos obligados. Y, los gastos de recursos técnicos como el hardware, el
software, y dispositivos de red tienden a subir con el tiempo. Hasta ahora, hemos
cubierto una descripción de la tecnología relacionada con la puesta en práctica de
servidor virtual. Ahora es hora de mirar el negocio y desafíos técnicos esta
solución intenta resolver.

REDUCIENDO LOS COSTOS DEL CENTRO DE DATOS

Los negocios modernos confían en sus inversiones TI en informática para apoyar


todas las áreas del negocio. Desde los usuarios finales que se comunican sobre la
Internet a los usuarios de aplicaciones empresariales, el activo mantenido por el
personal TI informático es crítico a la reunión de objetivos de negocio. Una
prioridad principal para muchas empresas es controla los gastos relacionados con
la realización y el mantenimiento de esta infraestructura.

Para muchas organizaciones, una gran parte del presupuesto informático total es
dedicada al mantenimiento del centro de datos. Todo el hardware, el software, y
los dispositivos conectados a una red sobre los cuales el negocio confía
correctamente deben ser mantenidos y permanecer disponibles para el empleo.
Una fuente significativa de gastos es él mantenimiento mismo del equipo físico.
Más servidores y dispositivos de red un servicio informativo tienen que apoyar,
mayor la posibilidad de fracaso. Más máquinas también quieren decir más
supervisión, y si cualquier dispositivo se hace no disponible, el personal
informático generalmente tiene que trepar para devolverlo para atender tan
rápidamente como sea posible. Muchos de estos gastos y riesgos pueden ser
disminuidos reduciendo el número " partes movibles " en el centro de datos. Los
gastos de centro de datos pueden ser estropeado en varios componentes
primarios (mirar la Figura 1.4).

La figura 1.4: Los factores que conducen a mayores costos del centro de datos.

EL ESPACIO FISICO

Todos de muchos dispositivos que deben ser apoyados dentro del centro de datos
suben el espacio físico. Cada estante consume el espacio, y porque el tamaño del
centro de datos por lo general es limitado, solamente proporcionando bastante
espacio para la extensión puede ser un desafío. Para encontrar este desafío, en
algunos casos, los servicios informativos han decidido retirar los equipos más
viejos antes de lo planeado. Nuevos servidores y dispositivos conectados a una
red pueden proporcionar mucho mayores capacidades en más pequeños
espacios. Otro acercamiento es para ampliarse los datos físicamente centran el
espacio o distribuir recursos entre múltiples centros de datos.

Estas opciones pueden presentar algunos gastos enormes al TI departamento


informático. Por ejemplo, incluso si datos adicionales se centran el espacio está
disponible, mover recursos toma tiempo y esfuerzo. La fundación de la
infraestructura de dirección para apoyar múltiples posiciones de centro de datos
también puede ser costosa.

PODER

Los centros de datos confían sobre sus infraestructuras de poder para guardar
servidores y dispositivos conectados a sobre una red y corriendo En años
recientes, el costo crudo de la electricidad consumida por estos dispositivos se ha
hecho un coste principal por sí mismo. CPUs modernas y el empleo de servidores
considerablemente más poder que sus más viejos colegas y muchos negocios ha
encontrado que su consumo de electricidad por estante es mucho mayor que ellos
al principio habían planeado. Mayores demandas de poder a menudo requieren
que la capacidad adicional sea traída en el centro de datos. Esto a su turno podría
requerir el diseño físico del centro de datos, la administración a gastos
aumentados.
Como si el aprovisionamiento de poder no fuera bastante, hay varios gastos
secundarios para tener presente. La mayor parte de centros de datos deben
proporcionar conexiones de poder redundantes para asegurarse que dispositivos
críticos deberían permanecen disponibles si el circuito falla. Para tener la
redundancia llena, estas exigencias fácilmente pueden doblar la cantidad de poder
que debe estar disponible. Y, para proteger contra interrupciones por todo el sitio,
las series de reserva de batería y generadores a base de combustible deben ser
puestos en práctica. Todos estos componentes con regularidad deben ser
probados y mantenidos. Claramente, proporcionando el poder adecuado puede
chocar lo esencial para las organizaciones TI.

REFRIGERACIÓN

Un subproducto innecesario del empleo de electricidad es el calor generado por


componentes de centro de datos. En los límites de CPUs a discos duros para
conectar una red dispositivos, todos estos pedazos de hardware generan el calor.
Para asegurar la fiabilidad, los datos se centran los administradores deben
asegurar que la refrigeración adecuada está disponible. Con el aumento del
consumo de electricidad (y la generación de calor asociada) por estante,
manejando "puntos calientes" en el centro de datos rápidamente puede hacerse
una tarea de jornada completa. Para asegurar que sistemas críticos no se
recalientan, los administradores deben invertir dinero en soluciones de supervisión
ambientales (y el personal para manejarlos). Además, escalando la infraestructura
que se enfría (asumiendo que esto es posible para un centro de datos dado)
puede ser costoso.

IMPLEMANTANDO AMBIENTES AGILES IT

Para una moderna organización TI, se mantiene al corriente de el paso de los


cambios que requieren para apoyar iniciativas de negocio pueden ser provocadas.
A menudo parece que en cuanto una nueva solución es puesta en práctica, es
hora de hacer modificaciones a la infraestructura. Los cambios pueden venir
desde dentro del departamento TI - por ejemplo, cuando un servidor debe ser
mejorado al nuevo hardware por motivos de mantenimiento - o de unidades de
negocio.

Independientemente de los motivos para el cambio, los servicios informativos que


pueden reaccionar rápidamente proporcionan una ventaja significativa a las
organizaciones que ellos apoyan. Por el empleo de virtualización, servicios
informativos pueden crear un ambiente fluido en el cual ordenadores virtuales
dinámicamente pueden ser comenzados, detenidos, movidos, o copiados en todas
partes del ambiente. Esto a menudo puede ser hecho sin cualquier esfuerzo físico
y en una materia de minutos. Un ejemplo específico de agilidad creciente está en
reducir veces de despliegue para nuevos servidores.

REDUCIENDO EL TIEMPO DE DESPLIEGUE

A menudo la buena administración del departamento de TI tienen problemas que


tratan de seguir a las necesidades que se cambian de las unidades de negocio
que ellos apoyan. Una tarea importante es el aprovisionamiento de nuevos
servidores y otros dispositivos para apoyar iniciativas de negocio. El proceso de
desplegar a un nuevo servidor a menudo requiere muchos pasos, cada uno de
cual requiere el tiempo y el esfuerzo (ver la Figura 1.5).

La figura 1.5: Pasos complicados en despliegue de un nuevo servidor.

El proceso generalmente comienza con la determinación de las exigencias para el


nuevo servidor y luego la compra de ello. Dependiendo de un TI los procesos
internos de la organización y relaciones con vendedores preferidos, esto
generalmente toma al menos varios días. Una vez que el equipo llega, físicamente
debe ser colocado en un ambiente de centro de datos. Esto implica el trabajo
manual así como el apoyo de la infraestructura de poder y la red. Finalmente, SO
del servidor y usos deben ser configurados. El proceso entero puede tomar días o
semanas, dependiendo de la disponibilidad de hardware, recursos de personal, y
las exigencias específicas para la configuración del servidor.

En algunos casos, esta cantidad de tiempo y esfuerzo es inevitable para un nuevo


servidor físico podría requerir soporte en aplicaciones empresariales, y el
hardware especificado debe ser exacto. Sin embargo, es mucho más común para
usuarios como desarrolladores de software requerir un computador de menor
capacidad para pruebas u otros propósitos relacionados. De hecho, el hardware
de servidor moderno a menudo proporciona tanto funcionamiento que pocas
aplicaciones pueden tomar la ventaja completa del potencial de la máquina.

Para aquellos casos, el despliegue de MVS enormemente puede simplificar el


proceso. Muchas organizaciones de TI han encontrado que ellos pueden
desplegar una nueva MV en una materia de minutos. Cuando dado una opción,
ellos han encontrado que los usuarios finales a menudo prefieren tener un MV listo
para el empleo hacia el final del día más bien que esperar el despliegue de una
nueva máquina física. Por más rápidamente proporcionando los recursos de
computo necesarios, el personal TI informático puede evitar ser el
embotellamiento en la reunión de objetivos de negocio.

DESAFIOS (REQUERIMIENTOS)TECNICOS
Un foco para los negocios relacionados con aspectos de trabajo en un ambiente
TI, es tomado mirando algunos requerimientos técnicos. No técnicamente el
personal medio desconocen cuáles son las dificultades para , mover o
reconfigurar la aplicación. Después de todo el hablar de modular el sistema y
desconectar aplicaciones, porque es esto tan difícil para crear un flujo, de
ambiente cambiable? Vemos los mayores requerimientos reaccionando a
cambios en procesos dificultosos.

Administración de Servidores

Para muchos departamentos de TI, el proceso de instalar un SO y configurar usos


es necesario siempre un nuevo servidor es comprado. A menudo, las tareas como
la mejora del hardware de servidor para mejorar el funcionamiento implican una
cierta cantidad de riesgo porque el SO y servicios deben ser instalados de nuevo y
configurados de nuevo a mano sobre el nuevo hardware. En un mundo ideal, la
configuración entera del sistema podría ser movida o copiada a un nuevo
computador sin requerir cualquier nueva configuración.

El problema principal es el estrecho acoplamiento que ocurre entre aplicaciones,


SOs, y el hardware físico. SOS más moderno ha sido diseñado para monopolizar
el hardware sobre el cual ellos corren. Es decir ellos no son diseñados de modo
que ellos puedan compartir recursos con otro SOS que corren al mismo tiempo.
Los ajustes configurados y controladores de dispositivo estrechamente a menudo
son atados al hardware subyacente. Con frecuencia, un cambio aparentemente
simple (como la mejora de una tarjeta de interfaz de red - NIC) puede requerir que
nuevos controladores sean instalados.

A causa de este enganche apretado, las cargas de trabajo de servidor fácilmente


no pueden ser movidas entre plataformas de hardware heterogéneas sin requerir
la nueva instalación o, al menos, la nueva configuración significativa. La figura 1.6
muestra un ejemplo. En este caso, un SO que es instalado sobre el primer
servidor ha sido configurado para correr sobre aquel hardware. Si un
administrador de sistemas intentara copiar el SO, aplicaciones y datos
directamente a otro computador (por el empleo de software imaginario de disco o
por físicamente moviendo los discos duros), es probable que habría numerosos
problemas que impedirían al segundo servidor bootear (arrancar)

La figura 1.6: La relación entre OSS y hardware.

USANDO DIRECTIVOS COMPLEJOS

En los viejos días de aplicaciones, un componente solo ejecutable era a menudo


responsable de manejar el tratamiento y el completar una tarea de negocio. Así
mismo la aplicación a menudo trabajaba en un silo y había limitado dependencias
en otros usos o servicios. Aunque este acercamiento no fuera perfecto, realmente
hizo la dirección limpiamente simple. Por ejemplo, si la aplicación tuvo que ser
movida a otro servidor, podría ser instalada de nuevo y la configuración fácilmente
podría ser copiada.

En los modernos TI los ambientes son mucho más complejos. Las aplicaciones de
la empresa tienen muchas " partes móviles, " y sistemas que conectan una red a
administradores debe entender cómo manejar esta complejidad. A menudo, hay
muchas interdependencias entre aplicaciones y servicios. Por ejemplo, Recurso de
Planeación empresarial (ERP) la solución podría requerir a un servidor Web, un
servidor de aplicación, un servidor de base de datos, y la supervisión de
componentes. Estos servidores, a su turno, dependerían de la infraestructura de
red, incluyendo enrutadores, interruptores, y cortafuegos.

El resultado es que las aplicaciones tienden a ser fuerte acopladas a las


plataformas sobre las cuales corren. El movimiento, por ejemplo, una entera
solución Administración de Relaciones con los clientes (CRM) para un conjunto
de servidores al otro puede ser un desafío significativo. Además de muchos pasos
que requieren, hay una cantidad significativa de riesgo inherente en la fabricación
de los cambios.

Pasar por alto algunos ajustes de configuración podría impedir al sistema correr
óptimamente. Añada en cuestiones con el tiempo de inactividad potencial,
preocupaciones de integridad de datos, la planificación, y esto no es una pequeña
tarea.

La capacidad de moverse o copiar servicios es en particular importante para


apoyar guiones de recuperación de desastre y para manejar ciclos de vida de
mejora de hardware.

BENEFICIOS DE LA VIRTUALIZACIÓN

Construyendo sobre esta fundación sobre los tipos principales de negocio y los
desafíos técnicos que afectan servicios informativos, va a tomar un detallado
miran como el servidor virtualización puede ayudar a dirigir muchas de estas
cuestiones. Esta sección enfocará como el empleo de MVS puede mejorar
operaciones y disminuir gastos.

HARDWARE INDEPENDIENTE
La ventaja primaria de tecnología virtualización es la capacidad de crear las capas
de abstracción entre aplicaciones, SOS, y el hardware. Como mencionado antes,
una de las fuentes principales de complejidad de Dirección de Información
Tecnológica es que SOS y software son atados al hardware sobre el cual ellos
corren. Si un SO o una aplicación son movidos (por ejemplo, colocarlo sobre un
nuevo servidor por motivos de funcionamiento), muchas interdependencias deben
ser tenidas en cuenta.

La virtualización soluciona este problema. El invitado SO y cualquier aplicación


que es instalado dentro de un MV es atado sólo a la configuración de hardware del
MV, entonces el MV fácilmente puede ser movido a cualquier computador que
controla la misma capa virtual. La figura 1.7 proporciona una ilustración de como
esto trabajaría.

La figura 1.7: Movimiento de un MV entre plataformas de hardware heterogéneas.

Hay muchos caminos de los cuales esta funcionalidad puede ser usada. Por
ejemplo, los desarrolladores de software podrían realizar la configuración inicial de
un MV en un ambiente de prueba. Una vez que está listo para la producción, ellos
pueden o copiar o mover MV entero (que incluye al SO invitado y todos otros
ajustes) a un servidor de clase de producción para el acceso por usuarios finales.
En casos en los cuales MV particular se ha quedado pequeño su computador
principal, el MV rápidamente y fácilmente puede ser movido al hardware más
nuevo y más rápido sin preocuparse de la compatibilidad. Esto puede ayudar a
hacer el proceso de hardware mejora más simple y más salvo. Además, esto
puede permitir a administradores de sistemas rápidamente reasignar MVS a
máquinas basadas en su recurso real y exigencias de funcionamiento.

EL INCREMENTO EN LA UTILIZACIÓN DEL HARDWARE

Muchos administradores de sistemas dedican una cantidad significativa de su


tiempo a la dirección de los recursos mas usados en sus ambientes (por ejemplo,
podría haber un racimo de base de datos que solamente nunca parece ser
bastante rápido, no importa cuanto hardware es lanzado en ello). Aunque estos
sistemas sean seguramente importantes, un hecho simple en muchos ambientes
TI son que la mayoría de sistemas dentro de un centro de datos son infinitamente
subutilizados.

El hardware de un computador moderno a menudo proporciona tanta capacidad


de cómputo que pocas aplicaciones pueden aprovechar su potencial lleno.
Algunas estimaciones de industria muestran que recursos totales en un centro de
datos típico son, a lo más, el 15 por ciento utilizado. El adicional "slack" está
basado en una variedad de motivos. En algunos casos, los servidores son viejos
que rara vez (si alguna vez) son todavía usados presente en la red. Nadie está
realmente seguro quien es responsable de la máquina, entonces esto solamente
se sienta allí consumiendo recursos. En otros casos, las organizaciones de TI
podrían haber sobrestimado la cantidad de recursos usados por una aplicación en
particular(o la aplicación puede estar en activo uso). El departamento de TI
también está forzado a planificar recursos durante los períodos de uso máximo,
aun cuando estos períodos podrían ser muy infrecuentes.

Independientemente de la razón de en utilización, cada uno de estos servidores


sube el espacio físico, requiere la electricidad, y genera el calor - los gastos de
centro de datos pueden ser significativos. Una solución eficaz con este problema
es de combinar cargas de trabajo. Si tres servidores son el 20 por ciento utilizado,
las aplicaciones que corren sobre ellos podrían ser combinados en un solo
servidor (ver la Figura1.8). Este proceso es llamado a menudo consolidación de
servidor, puede ser una tarea difícil como consecuencia de las compatibilidades
potenciales de aplicación y diferencias de SOS y hardware. Sin embargo, si las
cargas de trabajo pueden ser colocadas dentro de MVS, ellos rápida y fácilmente
pueden ser movidos a servidores físicos basados en su corriente necesidades de
recursos de computo

La figura 1.8: Aumento de utilización de hardware por el empleo de MVS.

Tomando este ejemplo más lejos, las organizaciones pueden prever un ambiente
en que la mayor parte de los servidores corren el software virtual y MVS puede ser
reasignadas basando en exigencias de funcionamiento. El resultado es un
aumento dramático en retorno a la Inversión (ROI) debido a la mejor utilización del
activo existente de computo de una organización.

ADAPTANDOSE A LOS CAMBIOS

“En la vieja escuela” a menudo tenían el lujo de crear una interconexión y la


infraestructura de servidor basada en exigencias técnicas, entonces teniendo los
negocios adaptados a aprovechar al máximo. El tiempo ha cambiado, y los TI a
menudo juegan un papel crítico estratégico en la aseguración de la viabilidad y la
compatibilidad de la organización entera.

La capacidad de rápidamente responder al cambio de exigencias de negocio y


técnicas es una fuerza crucial para las organizaciones de TI modernas. Como MVs
fácilmente puede ser movido entre servidores, los servicios informativos pueden
adaptarse a exigencias que se cambian sin la operación costosa de trasladar el
hardware físicamente. Además, los recursos como el tiempo de CPU y la memoria
física fácilmente pueden ser asignados a MVS basado en su necesidad a menudo
sin aún requerir que el VM fuera de línea. La corriente capaz de virtualización
permiten al administrador de sistemas para dinámicamente definir al pariente "la
prioridad" de cada MV y/o reservar recursos de asegurar que una MV siempre
funcionará óptimamente. Estas ventajas pueden traducir en un servicio informativo
que es más en la sincronización con la organización que esto apoya.

SOPORTE PARA LA LEGALIDAD DE LAS APLICACIONES

Los más viejos usos que tienen exigencias especiales (a menudo correctamente
usos "de herencia" llamados) son una espina constante en el lado de
administradores de sistemas. Por ejemplo, un viejo sistema contable podría
requerir el empleo de Windows NT 4.0 o aún el MS-DOS, aun cuando el servicio
informativo más oficialmente apoye estas plataformas. O un instrumento raras
veces usado de la ingeniería podría requerir el empleo de los dispositivos de
puerto serie que no son apoyados sobre el hardware más reciente.

Independientemente de la razón, los servicios informativos a menudo son pegados


dentro del mantenimiento del más viejo hardware porque ellos no tienen ningún
modo de poner a babor estas aplicaciones a sistemas modernos. Los gastos son
el hardware anticuado enorme que apoya a menudo puede ser un desafío porque
las partes son más probables a fallar. Además, las piezas de repuesto no podrían
estar fácilmente disponibles y puede ser difícil de encontrar la experticia(o la
buena voluntad) apoyando a estos más viejos servidores.

La virtualización puede ayudar a apoyar las aplicaciones de herencia que permiten


a más viejo SOS y aplicaciones correr dentro de un MV. Mientras la configuración
de hardware del MV es apoyada por el SO y la aplicación, esto debería correr
correctamente. Vendedores virtuales han enfocado la implementación de
ambientes MV que son compatibles con tantos tipos diferentes SOS invitados
como sea posible. Entonces pueden recibir el MVS ellos mismos sobre el
hardware moderno. A menudo, pueden recibir muchos tales MVS sobre el mismo
computador, así simplificando la administración manteniendo la compatibilidad.

También podría gustarte