Está en la página 1de 4

Administración de servidores

.
Las corporaciones vienen optando por el modelo informático distribuido desde
comienzos de la década del 80. Esos entornos de tecnología pueden disponer
de una sola computadora con mayor capacidad, utilizada como servidor de
varias estaciones-cliente (desde PCs comunes a estaciones de trabajo).
Sin embargo, la situación más habitual es que las empresas cuentan con un
entorno heterogéneo, con varios servidores distribuidos o conectados en
cluster, o sea, varios servidores conectados en red. Ese modelo requiere que se
tenga más cuidado con la administración para que la infraestructura no se
vuelva demasiado compleja, ineficiente y costosa, exigiendo continuas
inversiones en equipos, componentes y personal.
Debido a las limitaciones del hardware y del software, antiguamente, muchos
operadores y administradores se mantenían fieles a algunos conceptos y reglas,
por ejemplo, la que determinaba que cada aplicación de misión crítica debía
permanecer en un único servidor dedicado, que nunca podía utilizar más que el
80% de la capacidad de la CPU (unidad central de procesamiento). Con la
evolución tecnológica, eso ya no tiene sentido.
Actualmente, la gran preocupación de los administradores informáticos se
relaciona con la proliferación del número de servidores. Las empresas invierten
cada vez más en nuevos equipos, tratando de aumentar la productividad y
cumplir con las crecientes necesidades de negocios, lo que, por otro lado,
puede ocasionar graves trastornos y dificultad de administración. La diversidad
de plataformas operativas y de generaciones tecnológicas en un solo entorno
provoca problemas de operación, mantenimiento, actualización y, como
consecuencia, repercute en los costos.
Uno de los factores que ha contribuido mucho al aumento del número de
servidores en las empresas es la reducción del costo de hardware, año a año,
aunque ese valor represente sólo el 20% del costo total de propiedad. La
alternativa de instalar varios servidores puede parecer económica, pero cada
nueva máquina agrega costos ocultos significativos, requiriendo dedicación de
los técnicos especializados en actividades de depuración, optimización y
administración.
Además, se necesita mantener diferentes configuraciones, como scripts,
operativos, versiones de sistemas, utilitarios de apoyo, procedimientos de
backup y disaster recovery.
Mantener todo ese aparato bajo control requiere adoptar algunas medidas,
entre las cuales se incluyen las siguientes consolidaciones: geográfica, física,
de datos y aplicativos. Se entiendo por consolidación geográfica la reducción
del número de centros, concentrando los servidores en un número menor de
máquinas.
En la práctica, eso permite reducir costos de administración, ya que disminuye
la necesidad de técnicos remotos. También se optimizan los niveles de servicio,
por medio de la adopción de procedimientos y reglas operativas.
Consolidación física significa transferir la carga de varios servidores de menor
tamaño a máquinas más grandes, lo que mejora la utilización general de los
recursos. En promedio, un servidor distribuido utiliza entre el 20% y el 30% de
su capacidad, lo que equivale al uso del pleno potencial de un solo servidor
cada tres máquinas.
Otra medida recomendable se refiere a la consolidación de datos y aplicativos,
lo que exige acciones más sofisticadas y planificación precisa para combinar
diversas fuentes de datos y plataformas en una sola.
Para comprender mejor esos conceptos, basta imaginar que una empresa
disponga de un parque de 200 servidores, mezclando tecnologías Intel y RISC,
de diversos proveedores y generaciones tecnológicas, que operan con sistemas
operativos distintos, como Unix, Linux y diversas versiones de MSWindows y
NetWare, de Novell. Administrar ese entorno heterogéneo implica costos de
personal especializado para operación y soporte, además de gastos en las
innumerables versiones de software y de soluciones de administración y de
seguridad.

Todas esas cuestiones pueden minimizarse si la empresa opta por una simple
consolidación geográfica y física, reemplazando esos equipos por 30 o 40 de
mayor tamaño, obteniendo como resultado la reducción del número de técnicos,
de los costos de instalación física y operativos, y también registrando ganancias
de disponibilidad, seguridad, nivel de servicio y aprovechamiento de los
recursos informáticos.
La planificación de la capacidad de los servidores es otra tarea que el
administrador de TI debe realizar en forma continua, según la demanda y el
volumen de procesamiento de los sistemas, para que las variaciones de uso
que se dan en el entorno no comprometan el rendimiento deseado y adecuado.
La periodicidad con que ese trabajo debe realizarse puede ser diaria, semanal o
mensual, de acuerdo con las características de demanda de los equipos, del
volumen de información procesada y de la criticidad del entorno.
Pueden emplearse herramientas que ayuden en el análisis histórico de uso de
los sistemas y en la realización de cálculos para proyectar necesidades de
expansiones futuras, considerando aspectos tales como: número de usuarios
simultáneos con acceso al servidor, mayor velocidad de procesamiento,
aumento de la capacidad de memoria, ampliación del número de estaciones
cliente conectadas a los servidores, nuevos periféricos y aplicativos agregados.
La administración del cambio
El propósito principal de la administración es preservar y asegurar la
confiabilidad y el buen rendimiento de los sistemas, al menor costo posible de
propiedad y de mantenimiento. La plataforma seleccionada debe tener en
cuenta cinco factores fundamentales: flexibilidad, escalabilidad, rendimiento,
confiabilidad y seguridad. Para evitar problemas futuros, el administrador de TI
debe prestarle atención a la garantía de calidad de las herramientas empleadas
en la corporación.
Las mejores prácticas de mercado recomiendan que en el caso de servidores
es importante obtener una garantía de los proveedores de por lo menos el
99,9% de confiabilidad. Los procedimientos para asegurar el buen desempeño
de los servidores deben ser los mismos que se aplican a las computadoras más
grandes, como mainframes, con monitoreo y mantenimiento periódicos y
planificación del desempeño y uso de los sistemas.
En los casos en que TI soporta operaciones importantes para la empresa, pero
cuenta con equipos más pequeños para desarrollar esa tarea, es recomendable
optar por servidores en cluster, asegurando la redundancia del entorno y
garantizando el mantenimiento de los servicios, inclusive en caso de
desperfectos en algún equipo. También es importante disponer de un sistema
de backup para prevenir eventuales problemas de pérdida de datos o de
indisponibilidad de los sistemas.
También es necesario adoptar algún tipo de administración de cambios, que
puede realizarse manual o automáticamente. Cuando el sector corporativo
comenzó a emplear los primeros servidores, el software se instalaba
manualmente, a través de varios tipos de medios, como diskettes y los actuales
CD-ROMs. En esa época, el software instalado en el servidor era comúnmente
estático, y requería modificaciones sólo una o dos veces al año. Cuando
requerían modificaciones, los técnicos demoraban horas para realizar el
proceso.
Con el correr del tiempo y los avances tecnológicos, las empresas comenzaron
a adquirir un número mayor de servidores y, de ese modo, surgió la necesidad
de administrarlos en forma remota. Algunas organizaciones utilizaban scripts
desarrollados internamente y software utilitario, con el objetivo de distribuir los
aplicativos en servidores remotos. Después, recurrían a herramientas de
administración y control para instalarlos.
Esa sistemática no brindaba escalabilidad y era necesaria la intervención
manual y de profesionales especializados. Con el crecimiento de la web y el
aumento del uso de aplicativos basados en red, también aumentó la frecuencia
de cambios en códigos y contenidos, y al mismo tiempo las arquitecturas de TI
se volvían cada vez más complejas.
Para cubrir esas necesidades, surgieron soluciones de administración de
cambios, productos que, sintéticamente, son recomendados para simplificar la
administración de aplicativos y datos, reduciendo la necesidad de
administración local y, por consiguiente, disminuyendo la cantidad de llamadas
a la mesa de ayuda.
Hoy, la mayoría de las soluciones para administración de cambios en servidores
está formada por una mezcla de sistema de distribución de aplicativos y de
contenido, y de instalación de archivos, a partir de repositorios principales para
puntos de la red, cuyo objetivo es ofrecer control en tiempo real y disponibilidad
de recursos.

También podría gustarte