Está en la página 1de 19

Sección: 613

Trabajo: Resumen primer parcial BLOQUE 1-5


BLOQUE 1

Descripción de las diferentes figuras del administrador de sistema para centro de datos
tareas y responsabilidades, los conocimientos necesarios, entorno y herramientas de
trabajo.

Un administrador de sistemas es la persona responsable de establecer y mantener el sistema,


los administradores del sistema pueden ser miembros de un departamento de
tecnología de la información, es aquel profesional que tiene la responsabilidad de
ejecutar, mantener, operar y asegurar el correcto funcionamiento de un sistema
informático y/o una red de cómputo.

Responsabilidades:

• Mantener el ambiente de desarrollo tanto de hardware, como de software.


• Realizar copias de respaldo.
• Montar repositorio de las herramientas utilizadas en el proyecto.
• Administrar cuentas de usuarios (instalación y mantenimiento de cuentas).
• Comprobar que los periféricos funcionan correctamente.
• En caso de fallo de hardware, designar los horarios de reparación.
• Monitorear el rendimiento del sistema.
• Crear sistemas de ficheros.
• Instalar el software.
• Crear la política de copias de seguridad y recuperación.
• Monitorear la comunicación de la red.
• Actualizar los sistemas, según sean accesibles nuevas versiones de Sistemas
Operativos y software aplicativo.
• Aplicar las políticas para el uso del sistema informático y de red.
• Configurar las políticas de seguridad para los usuarios. Un administrador de sistemas
debe contar con una sólida comprensión de la seguridad informática (por ejemplo,
cortafuegos y sistemas de detección de intrusos).
•.
Dirección
La Dirección está conformada por director o directora y subdirector o Subdirectora; se enfocan
en la gestión y coordinación general de éste Centro, la asignación o delegación de tareas, la
toma de decisiones de mayor nivel, la adecuada supervisión y gestión de todos los procesos
administrativos, de soporte y sustantivos, así como de los recursos humanos y materiales; lidera
el planeamiento estratégico, operativo, organizacional e impulsan las políticas y lineamientos
de TI.

Director: Los directores de departamentos de servicios de informática planifican, dirigen y


coordinan todo lo relacionado con los servicios de informática de la empresa o de
Organización bajo el mando general de los directores responsables y mediante la consulta con los
directores de otros departamentos o servicios.

Funciones del director o directora


 Actuar como entidad superior jerárquica de este Centro.
 Asesorar al Consejo Universitario, Rectoría y Vicerrectorías en materia de su
competencia.
 Servir de enlace entre el Centro y las entidades universitarias o externas que así lo
requieran.
 Coordinar con las autoridades respectivas en lo que corresponda, los planes de trabajo de
las unidades que llevan a cabo labores relacionadas con las funciones del Centro de
Informática.
Departamento o área de Operación: Esta área se encarga de brindar los servicios requeridos
para el proceso de datos, como son el preparar los datos y suministros necesarios para la sala
de cómputo, manejar los equipos periféricos y vigilar que los elementos del sistema
funcionen adecuadamente.

Departamento o área de Producción y Control: Tanto la Producción como el Control de


Calidad de la misma, son parte de las funciones de este Departamento.

Departamento o área de Análisis de Sistemas: Los analistas tienen la función de establecer


un flujo de información eficiente a través de toda la organización.

Departamento o área de Programación: El grupo de programación es el que se encarga de


elaborar los programas que se ejecutan en las computadoras, modifican los existentes y
vigilan que todos los procesos se ejecuten correctamente.

Departamento o área de Implementación: Esta área es la encargada de implantar nuevas


aplicaciones garantizando tanto su calidad como su adecuación a las necesidades de
los usuarios.

Departamento o área de Soporte Técnico: Área responsable de la gestión del hardware


y del software dentro de las instalaciones del Centro de Cómputo, entendiendo por
gestión: estrategia, planificación, instalación y mantenimiento.
Analista: Realizar el diseño técnico de los nuevos proyectos y aplicaciones pequeñas y programar
los módulos complejos.

Gerente de Procesos: Encargado de dirigir y administrar el área de Procesamiento de Datos,


así como relacionarse con las otras áreas del centro de cómputo.
Formula y administra todo el procesamiento de la información que maneja el Centro de
Cómputo.

Programador de Sistemas.: Programar y realizar la codificación y documentación de los


programas o sistemas desarrollados.

BLOQUE 2

Un data center es un centro de procesamiento de datos, una instalación empleada para


albergar un sistema de información de componentes asociados, como
telecomunicaciones y los sistemas de almacenamientos donde generalmente incluyen
fuentes de alimentación redundante o de respaldo de un proyecto típico de data center que
ofrece espacio para hardware en un ambiente controlado, como por ejemplo
acondicionando el espacio con el aire acondicionado, extinción de encendidos de diferentes
dispositivos de seguridad para permitir que los equipos tengan el mejor nivel de rendimiento
con la máxima disponibilidad del sistema.

El diseño de un centro de procesamiento de datos comienza por la elección de su ubicación


geográfica y requiere un equilibrio entre diversos factores:
 Coste económico: coste del terreno, impuestos municipales, seguros, etc.
 Infraestructuras disponibles en las cercanías: energía eléctrica, carreteras, acometidas de
electricidad, centralitas de telecomunicaciones, bomberos, etc.
 Riesgo: posibilidad de inundaciones, incendios, robos, terremotos, etc.

Mantenimiento de un Data Center


Todos los Datacenter se encuentran dotados de equipos eléctricos e informáticos que deben
estar funcionando en todo momento. Es por esto que todo lo que esté en dicha infraestructura
debe ser revisado, verificado y mantenido, cada cierto tiempo. Quizás es algo tedioso, pero es
un paso pequeño que estaremos dando, para ahorrar eventuales grandes problemas en el futuro.
Tipología de Data Center

Los modelos que podemos encontrar son los siguientes:

Enterprise: (dominio privado).

Internet (dominio público): este tipo pertenece y es operado por un proveedor de servicios
de telecomunicación, operadoras de telefonía u otros prestadores de servicios que tienen
como principal medio de comunicación a inter- net.

Co-location: contratación del espacio físico de racks, infraestructura de energía y


telecomunicaciones, no obstante, los servidores, aplicaciones, gestión, monitoreo y soporte
son propios del locador.

Hosting: ofrece una línea de servicios para optimizar inversiones de hardware y software,
además de la infraestructura física de racks, energía y telecomunicación los servidores,
storage, unidad de backup, profesionales y servicios de soporte.
Diseño Data Center y Grados de disponibilidad (Tier).

El diseño de la data center no sólo tiene que ver con su construcción, hardware, software
o telecomunicaciones. La infraestructura física del centro de datos la componen una
serie de subsistemas como el de climatización o el sistema de protección contra
incendios que también deben ser tomados en cuenta, cuando pensamos en su diseño.

También debemos tomar en cuenta aspectos como recursos humanos o la capacidad


de mantenerse funcionando, aunque existan ataques o desastres naturales externos a
las empresas.
Clasificación del TIER para diseño de su data center Podemos clasificar los data center,
gracias a los estándares TIA-942 que incluyen información sobre los grados de
disponibilidad (TIER).

Los Tiers se basan en información desarrollada por el Uptime Institute, un consorcio


dedicado a promover las mejores prácticas para la planificación y gestión de centros de datos.

Para cada uno de los Tiers que existen se detallan las recomendaciones para la
infraestructura de seguridad, eléctrica y mecánica y telecomunicaciones. Cuando mayor
Tier disponemos, mayor grado de disponibilidad.

Clasificación Tier

Tier % disponibilidad % de indisponibilidad Tiempo de indisponibilidad al año.

Tier I 99.671 % 0.329 % 28.82 horas

Tier II 99.741 % 0.251 % 22.68 horas

Tier III 99.982 % 0.018 % 1.57 horas

Tier IV 99.995 % 0.005 % 52.56 minutos


Tier I: Básico
Un diseño Tier 1 admite interrupciones planeadas y no planeadas. Disponen de sistemas
de aire acondicionado y también de distribución de energía, pero no suelen tener: suelo
técnico, UPS o generados eléctricos.

Este sistema puede tener varios puntos de fallo, sobre todo cuando la carga es máxima en
situaciones críticas. También puede tener errores de operación o fallos en su infraestructura
lo que provoca la interrupción de sus data centers.
Además la infraestructura del data center deberá estar fuera de servicio una vez al año para
su mantenimiento o reparación.
La tasa máxima de disponibilidad del CPD es 99.671% del tiempo. Tier
II: Componentes Redundantes
Los Data Centers con componentes redundantes son ligeramente menos
susceptibles a interrupciones, tanto planeadas como las no planeadas. Estos CPDs cuentan con
suelo técnico, UPS y generadores eléctricos, pero está conectado a una sola línea de
distribución eléctrica. Su diseño es (N+1), lo que significa que existe al menos un duplicado
de cada componente de la infraestructura. La carga máxima de los sistemas en situaciones
críticas es del 100%. El mantenimiento en la línea de distribución eléctrica o en otros
componentes de la infraestructura, pueden causar una interrupción del servicio.
La tasa de disponibilidad máxima del CPD es 99.741% del tiempo. Tier
III: Mantenimiento Concurrente
Las capacidades de su Data Center Tier III, nos permiten realizar cualquier actividad
planeada sobre cualquier componente sin tener ninguna interrupción en la operación.

Las actividades planeadas incluyen:

 Mantenimiento preventivo
 Reparación y reemplazamiento de componentes
 Agregar o eliminar los componentes
 Realizar pruebas en sistemas o subsistemas.
Si queremos este diseño data center, debe existir la capacidad necesaria y una doble línea de
distribución para los componentes. De esta forma es posible realizar pruebas mientras
la otra línea atiende la totalidad de la carga.

En el caso de actividades no planeadas como los errores de una operación o fallos


espontáneos en la infraestructura pueden causar fallos en su centro de procesamiento
de datos. La carga máxima para situaciones críticas es de 90%.

La mayoría de los Data Centers Tier III son diseñados para actualizarse a Tier IV, este cambio se
produce cuando aumentan los requerimientos de la empresa.
La tasa máxima de disponibilidad del CPD es 99.982% del tiempo. Tier
IV: Tolerante a Fallos
Un diseño en data center con este nivel proveerá capacidad para realizar cualquier
tipo de actividad sin tener interrupciones en el servicio. Además, tiene tolerancia a fallos
que le permiten a la infraestructura de su data center a continuar operando ante una
actividad no planeada.

Para ello este sistema requiere dos líneas de distribución simultáneamente activas,
típicamente en una configuración System+System. La carga máxima en situación crítica es
del 90%. Persiste un nivel de exposición a fallos ya que es avisada por una alarma de
incendio.
La tasa de disponibilidad máxima del CPD es 99.995% del tiempo.

BLOQUE 3

La virtualización se encarga de otorgar flexibilidad, dando más recursos de


procesamiento, red, almacenamiento a quien más los necesita, ayudando a optimizar.
Por ejemplo, si virtualizas máquinas de escritorio, la máquina “virtual” simula una
plataforma de hardware con su propio sistema operativo, es decir, para el usuario es
completamente transparente y no notará diferencia alguna, sólo que el procesamiento de
archivo de sus tareas se llevará a cabo en algún lugar del data center y no en su estación
física.

Las principales ventajas de la virtualización


1) Ahorra dinero – Optimizas el número de servidores / unidades de
almacenamiento que necesitas, así como los costos asociados de electricidad,
enfriamiento, etc.
2) Reduce el trabajo administrativo – El trabajo de los administradores de los data centers
se minimiza, al haber menos equipo trabajando de manera más óptima. Las interfaces
comunes mediante las cual opera la virtualización también uniforman y reduce los
problemas.
3) Utiliza mejor el hardware – Las tasas de utilización del hardware dedicado a tareas
específicas es del 15%, virtualizando, logras una utilización hasta del 80%.
4) En general, ¡todos tus recursos son mucho más productivos!

Desventajas de la virtualización
Problemas de licencias. La utilización de la virtualización supone un cambio en cuanto
a las políticas de licencias por usuario.

Utilización de recursos. El software de virtualización tiene unos requerimientos de


hardware muy exigentes, sobre todo en cuanto a capacidad de proceso y de memoria
RAM. Esto supone una pérdida de rendimiento.

Existe una dependencia del sistema operativo anfitrión y del sistema de virtualización
elegido. Es decir, el anfitrión limita y es el punto débil del sistema ya que está compartido
por todos los sistemas virtualizados.

¿qué es XEN?
XEN es una herramienta de virtualización que se ejecuta por debajo del sistema operativo
y actúa como hypervisor del mismo. Es decir, si el sistema operativo actúa como supervisor
de los programas que se ejecutan sobre él, XEN supervisa al supervisor y por lo tanto
está en una capa inferior.

XEN funciona en arquitecturas x86 de 32 y 64 bits. XEN


llama también a las máquinas virtuales dominios.

Tiene dos formas de trabajar:


HVM o 'Full Virtualization', es decir, virtualización completa, que consiste en la
instalación de una máquina virtual como si fuera un host independiente.

Paravirtualización, que consiste en utilizar un kernel modificado para que pueda


comunicarse con el hypervisor de XEN. Este es el uso más habitual de XEN. A través del
hypervisor XEN se comunica directamente con el hardware del equipo (CPU).
El uso HVM tiene la ventaja de que se puede virtualizar Windows, y no es necesario tener un
kernel especial para virtualizar sistemas GNU/Linux, aunque su rendimiento es
inferior, ya que en ausencia de un kernel adaptado algunos componentes son
emulados.

Características de XEN
Enumeramos sus principales características:
 Código fuente reducido y buena velocidad y gestión de los recursos (E/S, red, CPU y
memoria).
 Buen rendimiento.
 Con soporte de hasta 32 procesadores en paralelo (SMP).
 Soporta PAE (Physical Address Extension) para servidores de 32 bits con más de 4GB
de memoria RAM. Recordar que un kernel PAE es una versión del kernel para
32bits que permite reconocer hasta 64GB RAM.
 Permite 'mover en caliente' máquinas virtuales.
 Instalar XEN solo necesita un kernel con el parche de XEN y las herramientas de
usuario para poder crear, destruir y modificar los valores de las máquinas virtuales
en caliente.

XEN en la actualidad es ya un software suficientemente probado. Su licencia GPL lo hace


muy atractivo para entornos de producción ya que abarata mucho los costes. Y combinado
con sistemas de almacenamiento tipo RAID le aseguran una alta disponibilidad.

Paravirtualización

Utiliza la tecnología de virtualización de la CPU para implementar el acceso


compartido del hipervisor al hardware subyacente. Sin embargo, debido a que el sistema
operativo invitado que se ejecuta en el hipervisor ha integrado el código relacionado con
la semi-virtualización, el sistema operativo del usuario puede cooperar bien con el
hipervisor para implementar la virtualización. De esta manera, la instrucción de
privilegios no necesita ser recompilada o capturada y su rendimiento es muy similar al
de la máquina física. El producto más clásico de este método es Microsoft Hyper-V y
Citrix Xen.
Ventajas: en comparación con la virtualización completa, la virtualización para está más
optimizada y tiene ciertas ventajas en la velocidad general.

Desventajas: el sistema operativo del usuario debe modificarse, por lo que hay menos
sistemas operativos compatibles.

Virtualización completa

La virtualización completa es similar a la paravirtualización. También utiliza el


hipervisor para capturar y procesar comandos privilegiados criptográficamente sensibles
entre el sistema operativo invitado y el hardware, de modo que el sistema operativo invitado
pueda ejecutarse sin modificaciones, y la velocidad será diferente según las diferentes
implementaciones (tiene la tecnología de El hardware de la CPU y la parte del software está
completamente simulada), lo que puede satisfacer aproximadamente las necesidades
de los usuarios. KVM y VMware ESX son virtualización completa.

Ventajas: Admite casi todos los sistemas operativos invitados sin modificación, lo que
significa que la compatibilidad es buena.

Desventajas: Debido a que algunas partes tienen funciones analógicas, la E / S y el


rendimiento son peores que los anteriores.

Instalación de Linux en Entorno (VMware Player)


 Arrancar el programa VMware Player.
 Hacer clic sobre "Open a Virtual Machine".
 En la ventana de navegación se debe indicar la ubicación del fichero
"UbuntuDit-16r2.vmx". La ubicación de este fichero, si se han seguido las
indicaciones anteriores, será "C:\DIT\UbuntuDit-16r2\". Por último, pulsar
"Abrir".
 Pulsar "Play virtual machine". Nota: Una alternativa a los pasos anteriores es hacer
doble clic sobre el archivo "C:\DIT\UbuntuDit-16r2\UbuntuDit- 16r2.vmx".
 En la siguiente ventana, indicar la opción "I copied it" y pulsar "OK". Instalación sw
Linux en Entorno (VirtualBox)
 Arrancar el programa VirtualBox.
 Dentro del menú "Máquina", hacer clic sobre "Nueva...".
 Pulsar "Siguiente >".
 Indicar el nombre de la nueva máquina virtual, por ejemplo "Ubuntu".
 Indicar que el sistema operativo es "Linux" y la versión es "Ubuntu 64bits".
 Pulsar "Siguiente >".
 Indicar la cantidad de memoria que se le va a asignar a la máquina virtual, por ejemplo
1024 MB.
 Pulsar "Siguiente >".
 Señalar la opción "Disco duro de arranque". Una vez señalada, indicar la opción
"Usar un disco duro existente". Tras ello, pulsar el icono que hay a la derecha de la
lista desplegable.
 En la nueva ventana, pulsar el icono "Agregar". Aparecerá nuevamente otra ventana
de navegación donde debemos indicar la ubicación del fichero "UbuntuDit-
16r2.vmdk". La ubicación de este fichero, si se han seguido las indicaciones
anteriores, será "C:\DIT\UbuntuDit-16r2\". Por último, pulsar "Abrir".
 Señalar el "Disco Duro" con nombre "UbuntuDit-16r2.vmdk" y pulsar
"Seleccionar".
 Pulsar "Siguiente >".
 Pulsar "Terminar".
 Para encender la máquina virtual sólo es necesario pulsar el botón "Iniciar".
 Una vez que la máquina virtual haya terminado de arrancar, acceder al menú
"Dispositivos" de VirtualBox y pulsar sobre el ítem "Instalar Guest
Additions...".
 Dentro de la máquina virtual, pulsar "Ejecutar".
 Introducir la contraseña del usuario y pulsar "Aceptar".
 Una vez terminada la instalación, pulsar la tecla return y reiniciar el sistema.

Instalación de sistemas de monitorización y configuración centralizadas del “Data Center”


virtual.
Una de las fases más importantes en la conceptualización de un Centro de Proceso de Datos es
el establecimiento de sistemas y acciones que nos permitan monitorizar, controlar y, en su
caso, corregir las posibles desviaciones de nuestro plan inicial mediante las medidas
correctivas necesarias.
La implementación en un CPD de un sistema de monitorización y control permite tener en
todo momento controlados los parámetros críticos y fundamentales, programar las
tareas de mantenimiento, conocer el estado de los equipos, planificar la renovación de los
mismos, conocer la ubicación y parámetros clave tanto en servidores como en racks, así
como su consumo, su temperatura y humedad.

Para ello es necesario colocar los dispositivos de medida necesarios en los puntos donde la
información que aporten resulte más significativa, como son las sondas de temperatura y de
humedad o las regletas inteligentes.

Ganglia: Es una herramienta de monitoreo distribuido y escalable para sistemas


informáticos, clústeres y redes de alto rendimiento. El software se usa para ver
estadísticas en vivo o grabadas que cubren métricas como promedios de carga de CPU o
utilización de red para muchos nodos.

Webmin: Es una herramienta de configuración de sistemas accesible vía web para sistemas
Unix, como GNU/Linux y OpenSolaris. Con él se pueden configurar aspectos
internos de muchos sistemas libres, como el servidor web Apache, PHP,
MySQL, DNS, Samba, DHCP, entre otros.

Nagios: Es un sistema de monitorización de redes ampliamente utilizado, de código abierto,


que vigila los equipos (hardware) y servicios (software) que se especifiquen, alertando
cuando el comportamiento de los mismos no sea el deseado.

phpLDAPadmin: También conocido como PLA, es una herramienta para la


administración de servidores LDAP escrito en PHP, basado en interfaz Web. Trabaja en varias
plataformas, pudiendo acceder al servidor LDAP desde cualquier lugar en Internet usando
un navegador Web. Se encuentra disponible bajo licencia GPL Posee una vista jerárquica
basada en árbol en donde se puede navegar por toda la estructura de directorio. Permite ver los
esquemas LDAP, realizar búsquedas, crear, borrar, copiar y editar entradas LDAP, incluso
copiar entradas entre servidores LDAP.
BLOQUE 4

Servicio seguro de información: OpenLdap (ssl):

El protocolo ligero de acceso a directorios hace referencia a un protocolo a nivel de


aplicación que permite el acceso a un servicio de directorio ordenado y distribuido para
buscar diversa información en un entorno de red. Un directorio es un conjunto de objetos
con atributos organizados en una manera lógica y jerárquica. Los despliegues actuales
de LDAP tienden a usar nombres de Sistema de Nombres de Dominio (DNS por sus siglas en
inglés) para estructurar los niveles más altos de la jerarquía.

Servicio de autenticación: Kerberos:

Es un protocolo de autenticación de redes de ordenador que permite a dos


ordenadores en una red insegura demostrar su identidad mutuamente de manera segura. En
un modelo de cliente-servidor, y brinda autenticación mutua: tanto cliente como
servidor verifican la identidad uno del otro. Los mensajes de autenticación están
protegidos para evitar eavesdropping y ataques de Replay.
Después de que un cliente/servidor han conseguido a través de Kerberos demostrar su
identidad, también pueden cifrar todas sus comunicaciones para garantizar la privacidad
y la integridad de los datos intercambiados.

Servicio local de sincronización de “reloj”:

El NTP se basa en el protocolo de datagramas de usuario (User Datagram Protocol o UDP), que
permite enviar datagramas sin que se haya establecido previamente una conexión. Es decir,
utiliza UDP como capa de transporte usando el puerto 123. El NTP proporciona los
mecanismos de protocolo básicos necesarios para sincronizar los relojes de los diferentes
sistemas con una precisión del orden de nanosegundos.

NTP Servicio local de nombres: DNS (Bind9):

Bind es el servidor de DNS más comúnmente usado en Internet, especialmente en sistemas


Unix, en los cuales es un Estándar de facto. Bind 9 fue escrito desde cero en parte para superar
las dificultades arquitectónicas presentes anteriormente para auditar el código en las
primeras versiones de BIND, y también para incorporar DNSSEC (DNS Security
Extensions).
Desde la versión 9,4 de BIND, DLZ ha estado disponible como una opción que permite
tiempo de compilación para el almacenamiento del sitio en una gran variedad de
formatos de bases de datos como por ejemplo LDAP, Berkeley DB, PostgreSQL,
MySQL u ODBC.
Servicio seguro de ficheros distribuido (en red):

Un sistema de archivos distribuido o sistema de archivos de red es un sistema de archivos


de computadoras que sirve para compartir archivos, impresoras y otros recursos como un
almacenamiento persistente en una red de computadoras. El primer sistema de este tipo
fue desarrollado en la década de 1970, y en 1985 Sun Microsystems creó el sistema de
archivos de red NFS el cual fue ampliamente utilizado como sistema de archivos
distribuido. Otros sistemas notables utilizados fueron el sistema de archivos Andrew (AFS) y
el sistema Server Message Block SMB, también conocido como CIFS.

Sistema de ficheros en red: NFSv4:


El sistema de archivos de red (Network File System, NFS) es una aplicación
cliente/servidor que permite a un usuario de equipo ver y, opcionalmente, almacenar
y actualizar archivos en un equipo remoto como si estuvieran en el propio equipo del usuario.
El protocolo NFS es uno de varios estándares de sistema de archivos distribuidos para
almacenamiento atado a la red (NAS).

Sistema de interoperabilidad con plataformas MS Windows: Samba:

Samba es una implementación libre del protocolo de archivos compartidos de


Microsoft Windows (antiguamente llamado SMB, renombrado recientemente a CIFS)
para sistemas de tipo UNIX. De esta forma, es posible que computadoras con GNU/Linux,
Mac OS X o Unix en general se vean como servidores o actúen como clientes en redes de
Windows. Samba también permite validar usuarios haciendo de Controlador Principal de
Dominio (PDC), como miembro de dominio e incluso como un dominio Active Directory
para redes basadas en Windows; aparte de ser capaz de servir colas de impresión,
directorios compartidos y autentificar con su propio archivo de usuarios.

Preboot eXecution Environment (PXE)

Es un entorno para arrancar e instalar el sistema operativo en computadoras a través de


una red, de manera independiente de los dispositivos de almacenamiento de datos
disponibles (como discos duros) o de los sistemas operativos instalados.
El protocolo PXE consiste en una combinación de los protocolos DHCP y TFTP con
pequeñas modificaciones en ambos. DHCP es utilizado para localizar el servidor de arranque
apropiado, con TFTP se descarga el programa inicial de bootstrap y archivos
adicionales.
TFTP: Es un protocolo de transferencia muy simple semejante a una versión
básica de FTP. TFTP a menudo se utiliza para transferir pequeños archivos
entre computadoras en una red, como cuando un terminal X Window o
cualquier otro cliente ligero arranca desde un servidor de red.

DHCP: es un protocolo de red de tipo cliente/servidor mediante el cual un


servidor DHCP asigna dinámicamente una dirección IP y otros parámetros de
configuración de red a cada dispositivo en una red para que puedan comunicarse
con otras redes IP.

SERVIDOR APACHE 2: El servidor HTTP Apache es un servidor web HTTP de


código abierto, para plataformas Unix (BSD, GNU/Linux, etc.), Microsoft
Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1 y la noción
de sitio virtual según la normativa RFC 2616. Cuando comenzó su desarrollo
en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3

Servicio seguro de correo electrónico:

POSTFIX: Postfix es un servidor de correo de software libre / código abierto,


un programa informático para el enrutamiento y envío de correo electrónico,
creado con la intención de que sea una alternativa más rápida, fácil de administrar
y segura al ampliamente utilizado Sendmail.

IMAP: es un protocolo de aplicación que permite el acceso a mensajes


almacenados en un servidor de Internet. Mediante IMAP se puede tener
acceso al correo electrónico desde cualquier equipo que tenga una conexión a
Internet. IMAP tiene varias ventajas sobre POP (otro protocolo empleado para
obtener correos desde un servidor). Por ejemplo, es posible especificar en IMAP
carpetas del lado del servidor. Por otro lado, es más complejo que POP ya que
permite visualizar los mensajes de manera remota y no descargando los
mensajes como lo hace POP.

WEBMAIL: El webmail es un sistema de acceso al correo electrónico que permite


acceder a sus mensajes mediante un navegador web, sin tener que descargar los
correos a su computador personal mediante programas como Outloo.
BLOQUE 5

Entornos de alta disponibilidad sistema ha Linux

Linux como sistema operativo debe de ofrecer una serie de facilidades, para que
los sistemas de alta disponibilidad puedan integrarse correctamente tal y como
se hace en otros entornos. Estas facilidades están relacionados directamente con
el entorno hardware y el software para las aplicaciones de alta disponibilidad.

Balanceador de carga HA proxy

HAProxy, que significa High Availability Proxy (Proxy de alta disponibilidad),


es un popular software de código abierto TCP/HTTP Balanceador de carga y
una solución de proxy que se puede ejecutar en Linux, Solaris y FreeBSD. Su
uso más común es mejorar el rendimiento y la confiabilidad de un entorno de
servidor distribuyendo la carga de trabajo entre múltiples servidores (por
ejemplo, web, aplicación, base de datos). Se utiliza en muchos entornos de alto
perfil, incluidos: GitHub, Imgur, Instagram y Twitter.

Alta disponibilidad con heartbeat

Heartbeat es una aplicación de libre distribución disponible para los sistemas


operativos de tipo Linux, FreeBSD y Solaris, que permite configurar sistemas
de Alta Disponibilidad ofreciendo procesos de comunicación y monitorización
de los nodos que conforman el cluster.

Implantación de un sistema distribuido mirror en red de dispositivos de bloques:


drbd

El dispositivo de bloque replicado distribuido (DRBD) es una solución de


replicación de almacenamiento, no compartida, implementada por software que
refleja el contenido de los dispositivos de bloque entre servidores. Sus funciones
principales se implementan a través del kernel de Linux, que está más cerca del
kernel del sistema operativo y la pila de IO que el sistema de archivos. DRBD
se compone de módulos del kernel y scripts relacionados para construir un
clúster de alta disponibilidad. Su implementación consiste en reflejar todo el
dispositivo a través de la red. Puede pensar en ello como una especie de RAID
de red. Permite a los usuarios establecer un espejo en tiempo real del dispositivo
de bloque local en la máquina remota.

También podría gustarte