Está en la página 1de 29

Clustering Definicin

Termino comn para identificar el mecanismo de distribuir un servicio sobre un


numero de servidores para incrementar la tolerancia a fallas y soportar mayores
cargas que las que podra soportar un servidor simple.

Es usado para aplicaciones de gran escala y de misin critica donde no puede haber
tiempos muertos. Un cluster contiene los servidores que comparten el estado en un
cierto nivel, tal como estado del HTTP, el estado de EJB o estado del contexto de
aplicacin. El acceso del cliente a estos servidores es manejado normalmente por los
balanceadores de la carga
Orin http://www.orionserver.com

Un cluster no es un supercomputador pero si es necesario obtener un rendimiento


parecido, estos satisfacen todos los requerimientos

Porque clusters x86?

Un ejemplo de las ventajas del procesamiento paralelo

Clustering

Los servicios de cluster ofrecidos con una aplicacin Orion Application Server incluye:
Balanceo de carga, Replicacin del Contexto de estado de Aplicacin, Replicacin de
estado HTTP y Replicacin de estado EJB
Una versin gratuita puede bajarse de:
http://www.orionserver.com/mirrordownload.jsp?file=orion2.0.2.zip

Cluster de Datos - Ejemplo

Solucin para
garantizar la
disponibilidad de los
datos en entornos
empresariales clave
Ofrece una
disponibilidad de datos
superior al 99,99%,

Funciones

Ventajas

Recuperacin
tras fallo
automtica con
notificacin

Proporciona disponibilidad de datos continuada


para un servidor de almacenamiento no disponible
y notifica al administrador la recuperacin tras
fallos

Recuperacin y
restauracin
manual

Permite llevar a cabo el mantenimiento planificado


de un servidor dedicado a almacenamiento sin que
repercuta en la disponibilidad de datos.

Recuperacin
transparente
tras fallos

Los usuarios finales no se ven afectados por la


recuperacin tras fallos, ya que, una vez realizada,
continan accediendo a los datos.

Configuracin
activa / activa

Ambos servidores dedicados a almacenamiento en


cluster estn funcionando.

Cluster de larga
distancia

Los administradores disponen de una gran


flexibilidad con respecto a la ubicacin fsica de los
servidores dedicados a almacenamiento en cluster.

Cluster Aplicaciones y Datos - Ejemplo


La solucin de cluster
para aplicaciones y datos
ofrece un nivel de tiempo
total de actividad muy
alto.
Hasta 48 Tb de datos y
tarjetas de red: Gb Eth,
FEth, Quad FEth, OC-3.
OC12

Porque cluster?
Necesidades actuales de clculos intensivos:
Prediccin del tiempo
Diseo de productos avanzados
Almacenamiento masivo de datos
Procesamiento de imgenes
Requieren de recursos de gran capacidad para
resolver los problemas ms rpido

Cluster con WIN2000

Microsoft Cluster Server (MSCS) para sistemas Windows NT, se puede llegar a conseguir una
disponibilidad de hasta 99.999%.

Implica una preparacin, implementacin y mantenimiento ms especializados que la gestin de dos


servidores independientes.

MSCS es un componente de NT Server Enterprise Edition (NTS/E), que tambin se incluye en


Windows 2000 Advanced Server y en W2000 Datacenter Server
Hardware

La arquitectura de almacenamiento para cluster puede ser con SCSI o Fibre Channel (mas caro pero
mas fiable).

Cada componente constituyente del sistema debe ser tan fiable como sea posible.

Es recomendable redundar la fuente, de alimentacin, ventiladores o tarjetas de red, y proteger el


almacenamiento local del servidor mediante duplicacin, como una controladora RAID o la funcin
de duplicacin de disco de NT.

La utilizacin de almacenamiento por disco compartido en el cluster crea un nico punto de fallo: si
el almacenamiento del cluster queda inaccesible, lo mismo le ocurrir al almacenamiento del
sistema. Se sugiere implementar las controladoras de disco como parejas redundantes que acten
conjuntamente

Clustering Win 2000 La actualidad


Windows 2000 incluye un poderoso soporte de Clustering
MSCS: Microsoft Cluster Service
Windows 2000 Advanced Server
Windows 2000 Datacenter Server
Opciones:
2 Nodos W2000 Advanced Server
3 Nodos W2000 Datacenter Server
4 Nodos W2000 Datacenter Server

Clustering Win 2000 La actualidad


2 Nodos - El Cluster ms simple
Activo / Activo
Activo / Pasivo
Conceptos similares se aplican a Clusters de
3 y 4 nodos

Clustering Cmo funciona el Cluster?

LAN

LAN

SQL 2000 Virtual Server - MSCS

SQL 2000 Virtual Server - MSCS

Nodo A

Nodo B
Heartbeat

Array de discos compartido

Clustering Win 2000 La actualidad

Server Virtual
Se le asigna un nombre
Se le asigna una IP
Para el cliente, es indistinto y transparente el nodo
que le brinda servicio

Clustering Win 2000 La actualidad


Pros del Clustering
Reduce al mnimo los tiempos
de un server cado
Tiene respuesta automtica
ante la cada de un nodo
No se necesita renombrar los
servidores
La recuperacin es rpida: tan
pronto se arregle el server

Contras
Costo mayor que un Stand by
server
Precisa ms tiempo en la
instalacin
Requiere un mantenimiento
mayor
Requiere administradores de
red y DBAs con ms
experiencia

Clustering Win 2000 La actualidad


Software necesario para un Cluster de 2 nodos
2 Windows 2000 Advanced Server
1 SQL Server 7 Ent. 1 SQL 2000 Ent. para un cluster Act / Pas
2 SQL Server 7 Ent. 2 SQL 2000 Ent. para un cluster Act / Act
Software necesario para un Cluster de 3 o 4 nodos
3 4 Windows 2000 Datacenter Server
3 4 SQL Server 7 Enterprise Edition SQL 2000 E.E.
Aplicar el ltimo Service Pack para Windows y SQL Server

En el mundo Linux/Unix
La Historia de Beowulf
A fines de 1993 Donald Becker y Thomas Sterling comenzaron a bosquejar el entorno de
un sistema basado en un cluster diseado como alternativa rentable a los
superordenadores grandes

El proyecto Beowulf arranco a inicios de 1994, trabajando con CESDIS bajo el


patrocinio del proyecto ESS, de NASA

El prototipo inicial fue concebido con un cluster formado por 16 PCs 486 DX4
conectados por Ethernet de 10 Mb usndolo como canal asegurado. La mquina fue un
xito inmediato y su idea de proporcionar sistemas de bajo costo fue adoptado por la
NASA y las comunidades de investigacin.

Este primer sistema requiri el rediseo de los drivers Ethernet para usarlo como canal,
subdividiendo el trafico para que curse por mas de un Ethernet

En 1997 el cluster de 140 nodos de la Universidad de Caltech ejecut un problema (NBody) a una tasa de 10 GFlops/sec

Beowulf - Como funciona?

Bsicamente, un sistema de Beowulf consiste en uno o ms nodos principales, que son sistemas completos con
sus dispositivos de I/O, y muchos nodos auxiliares (slaves), que son generalmente placas base o PCs sin
monitor, teclado y con un mnimo disco o ninguno.

Es una tecnologa para agrupar computadores basados en el sistema operativo Linux para formar un
supercomputador virtual paralelo, a partir de hardware comn, sistema operativo Linux y software abierto (open
source)

El nodo principal divide el problema y empaqueta los pedazos hacia los nodos auxiliares; despus consigue los
resultados y no requiere ningn proceso adicional para combinar los resultados. Tambin vigila las tareas
domesticas y otras faenas

La comunicacin entre l y sus esclavos es por pase de mensajes

Debido a que los nodos no estn estrechamente acoplados y no comparten la memoria, pueden ser heterogneos

Por convencin, los sistemas de Beowulf estn divididos en clases de mquinas I y II.

Las del tipo I no contienen otra cosa que componentes estndares que pueden comprarse en por lo menos tres
diversas fuentes

Un sistema de la clase II utiliza componentes modificados para requisitos particulares de algn trabajo

Diseo
Hacer que el cluster se comporte como una sola maquina
Los usuarios deben ser conocidos en todos los nodos (NIS) u
otro mecanismo para mantener consistentes los /etc/passwd
Las aplicaciones deben estar presentes en todos los nodos:
compartir el /usr/local

Conclusiones
La escalabilidad en un punto significativo
Los cluster Linux constituyen una plataforma adecuada para muchas
aplicaciones
Alta disponibilidad

Limitaciones
redes con alto nivel de latencia

Beowulf - Ventajas

Bajo costo inicial


Fcil de mantener
Tecnologa familiar
Escalable
Software gratis: Linux, PVM (Paralell Virtual Machine), MPI (Message
Passing Interface)
Escalabilidad
Permite agregar nuevos componentes para aumentar el nivel de
prestaciones sin necesidad de eliminar los elementos ya existentes
Disponibilidad
Existe redundancia natural, cada nodo posee sus propios componentes: bus,
memoria, procesador.
Se puede implementar polticas para el reemplazo rpido en caso de falla
del servidor maestro

Uno de los proyectos .. La Universidad


de Kentucky
16 computadoras Pentium de
700 Hz
Por un costo inferior a
$10,000
Con fines de ser usados en
video-games por Internet
Puede ser construido a partir
de las maquinas que otros
dejan de usar, a partir de 486

En el proyecto del genoma


humano, se utiliz un cluster de
1000 nodos
www.genetic.programing.com

Supercomputador Stone

El equipo del laboratorio nacional de


Los Alamos construy Avalon, el 25
superordenador ms rpido del
mundo por $152.000 (abril 2000), un
equipo similar hubiera costado cerca
de $1 milln

Cluster heterogneo formado por


maquinas de diferente hardware
Creci lentamente hasta 126 nodos
Cada nodo tiene por lo menos MB
20 de la memoria, por lo menos MB
400 de la espacio de disco y est
conectado con una red Ethernet de
10 Mb/s para las comunicaciones
internas del nodo
Si una maquina se deteriora, se
utiliza como donador sus partes
son aprovechadas para alargar la
vida de los demas integrantesdel
cluster

Los 5 Supercomputadores ms grandes


Eart Symulator Center
Yokohama NEC Sx

ASCI Q
Los Alamos
National
Laboratory (LANL)

5,120 (640 nodos de 8-vias) 500 MHz NEC CPUs


8 GFLOPS por CPU (41 TFLOPS total)
2 GB (4 512 MB FPLRAM modules) por CPU (10 TB total)
Memoria compartida dentro del nodo
640 640 Switch crossbar entre los nodos
16 GB/s ancho de banda inter-nodo
20 KVA de consumo de energa por nodo = 12,800 KVA

13.88 TFLOPS
3,072 AlphaServer ES45s HP
12,288 EV-68 1.25-GHz CPUs con 16-MB cache
33 Terabytes (TB) memory
Gigabit fiber-channel disk drives con 664 TB
Dual controller accessible 72 GB drives arranged in
1536 5+1 RAID5 storage arrays, interconectados a
traves deswitchs fiber-channel a 384 nodos file server

Los 5 Supercomputadores ms grandes


Virginia Tech Sx

Tungsten NCSA's
Urbana Campaign,
USA

10.28 TFLOPS
1,100 sistemas Apple G5 teniendo cada uno dos procesadores
IBM PowerPC 970 de 2 GHz.
Cada nodo tiene 4GB de memoria principal y 160GB de
almacenamiento Serial ATA.
176TB total almacenamiento secundario.
4 nodos principales para compilaciones/job startup.
1 nodo de administracin

9.82 TFLOPS
1,450 procesadores dual Dell PowerEdge
1750 servidores corriendo Linux Red Hat,
1 Switch Myrinet 2000 high-speed interconnect fabric,
1 SubCluster I/O con mas de 120 TB Almacenamiento
DataDirect

Los 5 Supercomputadores ms grandes


980 nodes HP/Linux Itanium 2 ("Madison") 1.5 GHz
1,960 procesadores Quadrics Elan 3 interconectados
11 TERAFLOPS de performance pico terico
7 Tb de RAM
142 Tb de espacio en disco
53 TB de espacio global en disco scratch

Escala de procesamiento

Lista de soluciones comerciales con tecnologa Beowulf Software

HP
Northrop Grumman
Accelerated Servers
Penguin Computing
Aspen Systems
PSSC Labs

Custom Fit, Inc.


Atipa
Turbotek
Microway
Linux Labs
Open Clustering UK

Lista de soluciones comerciales con tecnologa Beowulf Hardware

Accelerated Servers
HP
Custom Fit, Inc.
Turbotek
Open Clustering UK
Penguin Computing
Paralogic
PSSC Labs
Northrop Grumman
Sybrandt
Paralline
ParTec
Linux NetworX
Great Lakes Computer
California Digital
RackSaver

Eversys Corporation
azure
Western Scientific
IntegrityLinux Systems
Pioneer Technology
Atipa
massiveparallel.com
Alineos
Linvision
Linux Labs
Aspen Systems, Inc.
Microway, Inc.
AETHIA
Advanced Clustering Technologies, Inc.
Artabel

Documentacin
Manual de instalacin
http://www.cecalc.ula.ve/documentacion/tutoriales/beowulf
http://www.cecalc.ula.ve/documentacion/tutoriales/beowulf.pdf

Pgina recomendada
http://www.beowulf.org

También podría gustarte