Está en la página 1de 9

Clster (informtica)

rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cmputo distribuido de alto
rendimiento, as como la creciente necesidad de potencia
computacional para aplicaciones que la requieran.
Simplemente, un clster es un grupo de mltiples
ordenadores unidos mediante una red de alta velocidad,
de tal forma que el conjunto es visto como un nico ordenador, ms potente que los comunes de escritorio.
Los clsteres son usualmente empleados para mejorar el
rendimiento y/o la disponibilidad por encima de la que es
provista por un solo computador tpicamente siendo ms
econmico que computadores individuales de rapidez y
disponibilidad comparables.
De un clster se espera que presente combinaciones de
los siguientes servicios:
1. Alto rendimiento

Un clster en la Universidad McGill.

2. Alta disponibilidad
3. Balanceo de carga
4. Escalabilidad
La construccin de los ordenadores del clster es ms fcil y econmica debido a su exibilidad: pueden tener
todos la misma conguracin de hardware y sistema operativo (clster homogneo), diferente rendimiento pero
con arquitecturas y sistemas operativos similares (clster
semihomogneo), o tener diferente hardware y sistema
operativo (clster heterogneo), lo que hace ms fcil y
econmica su construccin.
Para que un clster funcione como tal, no basta solo con
conectar entre s los ordenadores, sino que es necesario
proveer un sistema de manejo del clster, el cual se encargue de interactuar con el usuario y los procesos que
corren en l para optimizar el funcionamiento.

Un ejemplo de clster en la NASA (EE. UU.)

El trmino clster (del ingls cluster, grupo o raz) se


aplica a los conjuntos o conglomerados de computadoras
unidos entre s normalmente por una red de alta velocidad
y que se comportan como si fuesen una nica computadora.

1 Historia

La tecnologa de clsteres ha evolucionado en apoyo de


actividades que van desde aplicaciones de supercmputo y software para apliaciones crticas, servidores web y
comercio electrnico, hasta bases de datos de alto rendimiento, entre otros usos.

El origen del trmino y del uso de este tipo de tecnologa


es desconocido pero se puede considerar que comenz a
nales de los aos cincuenta y principios de los sesenta.

La base formal de la ingeniera informtica cree que la


metodologa de proveer un medio de hacer trabajos paEl cmputo con clsteres surge como resultado de la con- ralelos de cualquier tipo fue inventado posiblemente por
vergencia de varias tendencias actuales que incluyen la Gene Amdahl de IBM, que en 1967 public lo que ha lledisponibilidad de microprocesadores econmicos de alto gado a ser considerado como el white paper inicial de
1

2
procesamiento paralelo: la Ley de Amdahl que describe
matemticamente el aceleramiento que se puede esperar
paralelizando cualquier otra serie de tareas realizadas en
una arquitectura paralela.
Este artculo dene la base para la ingeniera de la computacin tanto multiprocesador y computacin clster, en
donde el principal papel diferenciador es si las comunicaciones interprocesador cuentan con el apoyo dentro de
la computadora (por ejemplo, en una conguracin personalizada para el bus o la red de las comunicaciones internas) o fuera del ordenador en una red commodity.
En consecuencia, la historia de los primeros grupos de
computadoras est ms o menos directamente ligado a la
historia de principios de las redes, como una de las principales motivaciones para el desarrollo de una red para
enlazar los recursos de computacin, de hecho la creacin
de un clster de computadoras. Las redes de conmutacin
de paquetes fueron conceptualmente inventados por la
corporacin RAND en 1962.

BENEFICIOS DE LA TECNOLOGA CLSTER

xito comercial y los clsteres no consiguieron tener xito hasta que en 1984 VAXcluster produjeran el sistema
operativo VAX/VMS.
El ARCnet y VAXcluster no solo son productos que apoyan la computacin paralela, si no que tambin comparten los sistemas de archivos y dispositivos perifricos.
La idea era proporcionar las ventajas del procesamiento
paralelo, al tiempo que se mantiene la abilidad de los
datos y el carcter singular. VAXcluster, VMScluster estn todava disponibles en los sistemas de HP OpenVMS
corriendo en sistemas Itanium y Alpha.
Otros dos principios comerciales de clsteres notables
fueron el Tandem Himalaya (alrededor 1994 de con productos de alta disponibilidad) y el IBM S/390 Parallel
Sysplex (tambin alrededor de 1994, principalmente para
el uso de la empresa).

La historia de los clsteres de computadoras estara incompleta sin sealar el papel fundamental desempeado
por el desarrollo del software de PVM (parallel virtual
Utilizando el concepto de una red de conmutacin de pamachine: mquina virtual paralela).
quetes, el proyecto ARPANET logr crear en 1969 lo que
fue posiblemente la primera red de computadoras bsica Este software de cdigo fuente libre, basado en comunibasadas en el clster de computadoras en cuatro centros caciones TCP/IP permiti la creacin de un superordeinformticos (cada una de las cuales fue algo similar a un nador virtual un clster HPC realizada desde cualclster pero no un commodity cluster como hoy en quiera de los sistemas conectados TCP/IP.
da lo entendemos).
De forma libre los clsteres heterogneos han constituido
El proyecto ARPANET creci y se convirti en lo que la cima de este modelo, logrando aumentar rpidamente
es ahora Internet. Se puede considerar como la madre en FLOPS y superando con creces la disponibilidad inde todos los clsteres (como la unin de casi todos los cluso de los supercomputadores ms caros.
recursos de cmputo, incluidos los clsteres, que pasaran PVM y el empleo de PC y redes de bajo costo llev, en
a ser conectados).
1993, a un proyecto de la NASA para construir superTambin estableci el paradigma de uso de computado- computadoras basados en clsteres.
ras clsteres en el mundo de hoy: el uso de las redes de En 1995, la invencin de la Beowulf un estilo de clsconmutacin de paquetes para realizar las comunicacio- ter una granja de computacin diseada segn un prones entre procesadores localizados en los marcos de otro ducto bsico de la red con el objetivo especco de ser
modo desconectados.
un superordenador capaz de realizar rmemente clcuEl desarrollo de la construccin de PC por los clientes y los paralelos HPC.
grupos de investigacin procedi a la par con la de las Esto estimul el desarrollo independiente de la compuredes y el sistema operativo Unix desde principios de la tacin Grid como una entidad, a pesar de que el estilo
dcada de los aos setenta, como TCP/IP y el proyecto de Grid giraba en torno al del sistema operativo Unix y el
la Xerox PARC proyecto y formalizado para protocolos Arpanet.
basados en la red de comunicaciones.
El ncleo del sistema operativo fue construido por un grupo de DEC PDP-11 minicomputadoras llamado C.mmp
en C-MU en 1971.
Sin embargo, no fue hasta alrededor de 1983 que los protocolos y herramientas para el trabajo remoto facilitasen
la distribucin y el uso compartido de archivos fueran denidos (en gran medida dentro del contexto de BSD Unix,
e implementados por Sun Microsystems) y, por tanto llegar a disponerse comercialmente, junto con una comparticin del sistema de cheros.
El primer producto comercial de tipo clster fue ARCnet,
desarrollada en 1977 por Datapoint pero no obtuvo un

2 Benecios de la tecnologa clster


Las aplicaciones paralelas escalables requieren: buen rendimiento, baja latencia, comunicaciones que dispongan
de gran ancho de banda, redes escalables y acceso rpido a archivos. Un clster puede satisfacer estos requisitos
usando los recursos que tiene asociados a l.
Los clsteres ofrecen las siguientes caractersticas a un
costo relativamente bajo:
Alto rendimiento

3
Alta disponibilidad
Alta eciencia

las aplicaciones en todos estos clsteres, son las mismas.


Ms an, un clster de determinado tipo, puede tambin
presentar caractersticas de los otros.

Escalabilidad
La tecnologa clster permite a las organizaciones incre- 4 Componentes de un clster
mentar su capacidad de procesamiento usando tecnologa estndar, tanto en componentes de hardware como de En general, un clster necesita de varios componentes de
software que pueden adquirirse a un costo relativamente software y hardware para poder funcionar:
bajo.
nodos

Clasicacin de los clsteres

El trmino clster tiene diferentes connotaciones para diferentes grupos de personas. Los tipos de clsteres, establecidos de acuerdo con el uso que se d y los servicios
que ofrecen, determinan el signicado del trmino para
el grupo que lo utiliza. Los clsteres pueden clasicarse
segn sus caractersticas:
HPCC (High Performance Computing Clusters: clsteres de alto rendimiento).

almacenamiento
sistemas operativos
conexiones de red
middleware
protocolos de comunicacin y servicios
aplicaciones
ambientes de programacin paralela

HA o HACC (High Availability Computing Clusters:


4.1
clsteres de alta disponibilidad).

Nodos

HT o HTCC (High Throughput Computing Clusters: Pueden ser simples ordenadores, sistemas multiprocesador o estaciones de trabajo (workstations). En informticlsteres de alta eciencia).
ca, de forma muy general, un nodo es un punto de interAlto rendimiento: Son clsteres en los cuales se ejecu- seccin o unin de varios elementos que conuyen en el
tan tareas que requieren de gran capacidad computacio- mismo lugar. Ahora bien, dentro de la informtica la panal, grandes cantidades de memoria, o ambos a la vez. El labra nodo puede referirse a conceptos diferentes segn
llevar a cabo estas tareas puede comprometer los recursos el mbito en el que nos movamos:
del clster por largos periodos de tiempo.
Alta disponibilidad: Son clsteres cuyo objetivo de diseo es el de proveer disponibilidad y conabilidad. Estos clsteres tratan de brindar la mxima disponibilidad
de los servicios que ofrecen. La conabilidad se provee
mediante software que detecta fallos y permite recuperarse frente a los mismos, mientras que en hardware se
evita tener un nico punto de fallos.

En redes de computadoras cada una de las mquinas es un nodo, y si la red es Internet, cada servidor
constituye tambin un nodo.
En estructuras de datos dinmicas un nodo es un registro que contiene un dato de inters y al menos un
puntero para referenciar (apuntar) a otro nodo. Si la
estructura tiene solo un puntero, la nica estructura
que se puede construir con l es una lista, si el nodo tiene ms de un puntero ya se pueden construir
estructuras ms complejas como rboles o grafos.

Alta eciencia: Son clsteres cuyo objetivo de diseo es


el ejecutar la mayor cantidad de tareas en el menor tiempo posible. Existe independencia de datos entre las tareas
individuales. El retardo entre los nodos del clster no es
El clster puede estar conformado por nodos dedicados o
considerado un gran problema.
por nodos no dedicados.
Los clsteres pueden tambin clasicar en:
En un clster con nodos dedicados, los nodos no disponen
clsteres de IT comerciales (de alta disponibilidad y de teclado, ratn ni monitor y su uso est exclusivamente dedicado a realizar tareas relacionadas con el clster.
alta eciencia) y
Mientras que, en un clster con nodos no dedicados, los
clsteres cientcos (de alto rendimiento).
nodos disponen de teclado, ratn y monitor y su uso no est exclusivamente dedicado a realizar tareas relacionadas
A pesar de las discrepancias a nivel de requisitos de las con el clster, el clster hace uso de los ciclos de reloj que
aplicaciones, muchas de las caractersticas de las arqui- el usuario del computador no est utilizando para realizar
tecturas de hardware y software, que estn por debajo de sus tareas.

Cabe aclarar que a la hora de disear un clster, los nodos deben tener caractersticas similares, es decir, deben
guardar cierta similitud de arquitectura y sistemas operativos, ya que si se conforma un clster con nodos totalmente heterogneos (existe una diferencia grande entre
capacidad de procesadores, memoria, disco duro) ser ineciente debido a que el middleware delegar o asignar
todos los procesos al nodo de mayor capacidad de cmputo y solo distribuir cuando este se encuentre saturado de
procesos; por eso es recomendable construir un grupo de
ordenadores lo ms similares posible.

4.2

Almacenamiento

COMPONENTES DE UN CLSTER

facilidad de uso y acceso. Un sistema operativo es un


programa o conjunto de programas de computadora
destinado a permitir una gestin ecaz y segura de
sus recursos. Comienza a trabajar cuando el gestor
de arranque carga en memoria su ncleo y gestiona el
hardware de la mquina desde los niveles ms bsicos,
permitiendo tambin la interaccin con el usuario. Se
puede encontrar normalmente en la mayora de los aparatos electrnicos que utilicen microprocesadores para
funcionar, ya que gracias a estos podemos entender la
mquina y que sta cumpla con sus funciones (telfonos
mviles, reproductores de DVD, radios, computadoras,
etc.).

El almacenamiento puede consistir en una NAS, una 4.3.1 Ejemplos


SAN, o almacenamiento interno en el servidor. El pro GNU/Linux
tocolo ms comnmente utilizado es NFS (Network File
System), sistema de cheros compartido entre servidor y
ABC GNU/Linux[1]
los nodos. Sin embargo existen sistemas de cheros espe OpenMosix
ccos para clsteres como Lustre (CFS) y PVFS2.
Tecnologas en el soporte del almacenamiento en discos
duros:
IDE o ATA: velocidades de 33, 66, 100, 133 y 166
MB/s
SATA: velocidades de 150, 300 y 600 MB/s

Rocks[2]
Kerrighed
Cndor
Sun Grid Engine
Unix

SCSI: velocidades de 160, 320, 640 MB/s. Proporciona altos rendimientos.

Solaris

SAS: ana SATA-II y SCSI. Velocidades de 300 y


600 MB/s

AIX

Las unidades de cinta (DLT) son utilizadas para copias de seguridad por su bajo costo.

HP-UX
Windows
NT
2000 Server

NAS (Network Attached Storage) es un dispositivo especco dedicado al almacenamiento a travs de red (normalmente TCP/IP) que hace uso de un sistema operativo
optimizado para dar acceso a travs de protocolos CIFS,
NFS, FTP o TFTP.
Por su parte, DAS (Direct Attached Storage) consiste en
conectar unidades externas de almacenamiento SCSI o a
una SAN (storage area network: red de rea de almacenamiento) a travs de un canal de bra. Estas conexiones
son dedicadas.

2003 Server
2008 Server
Mac OS X
Xgrid
Solaris
FreeBSD

Mientras NAS permite compartir el almacenamiento, uti4.4 Conexiones de red


lizar la red, y tiene una gestin ms sencilla, DAS proporciona mayor rendimiento y mayor abilidad al no comLos nodos de un clster pueden conectarse mediante una
partir el recurso.
simple red Ethernet con placas comunes (adaptadores de
red o NICs), o utilizarse tecnologas especiales de alta velocidad como Fast Ethernet, Gigabit Ethernet, Myrinet,
4.3 Sistema operativo
InniBand, SCI, etc.
Un sistema operativo debe ser multiproceso y
multiusuario. Otras caractersticas deseables son la

Ethernet

4.5

Middleware
Son las redes ms utilizadas en la actualidad,
debido a su relativo bajo coste. No obstante, su
tecnologa limita el tamao de paquete, realizan excesivas comprobaciones de error y sus
protocolos no son ecientes, y sus velocidades
de transmisin pueden limitar el rendimiento
de los clsteres. Para aplicaciones con paralelismo de grano grueso puede suponer una solucin acertada.
La opcin ms utilizada en la actualidad es Gigabit Ethernet (1 Gbit/s), siendo emergente la
solucin 10 Gigabit Ethernet (10 Gbit/s). La
latencia de estas tecnologas est en torno a los
30 a 100 s, dependiendo del protocolo de comunicacin empleado.
En todo caso, es la red de administracin por
excelencia, as que aunque no sea la solucin
de red de altas prestaciones para las comunicaciones, es la red dedicada a las tareas administrativas.

Myrinet (Myrinet 2000 y Myri-10G).

5
Su latencia terica es de 1,43 s y su ancho
de banda de 5333 Mbit/s bidireccional. Al poder congurarse con topologas de anillo (1D),
toro (2D) e hipercubo (3D) sin necesidad de
switch, se tiene una red adecuada para clsters
de pequeo y mediano tamao.
Al ser una red de extremadamente baja latencia, presenta ventajas frente a Myrinet en clsteres de pequeo tamao al tener una topologa punto a punto y no ser necesaria la adquisicin de un conmutador. El software sobre
SCI est menos desarrollado que sobre Myrinet, pero los rendimientos obtenidos son superiores, destacando SCI Sockets (que obtiene
startups de 3 microsegundos) y ScaMPI, una
biblioteca MPI de elevadas prestaciones.
Adems, a travs del mecanismo de preloading
(LD_PRELOAD) se puede conseguir que todas las comunicaciones del sistema vayan a
travs de SCI-SOCKETS (transparencia para
el usuario).

Su latencia es de 99 a 10 s, y su ancho de
banda es de 2 a 10 Gbit/s (para Myrinet 2000 4.5 Middleware
y Myri-10G, respectivamente).
El middleware es un software que generalmente acta
Es la red de baja latencia ms utilizada en
entre el sistema operativo y las aplicaciones con la nalila actualidad, tanto en clsteres como en
dad de proveer a un clster lo siguiente:
MPP; est presente en ms de la mitad de
los sistemas del top500. Tiene dos bibliotecas
Una interfaz nica de acceso al sistema, denominade comunicacin a bajo nivel (GM y MX).
da SSI (Single System Image), la cual genera la senSobre estas bibliotecas estn implementadas
sacin al usuario de que utiliza un nico ordenador
MPICH-GM, MPICH-MX, Sockets-GM y
muy potente;
Sockets MX, para aprovechar las excelentes caractersticas de Myrinet. Existen tam Herramientas para la optimizacin y mantenimienbin emulaciones IP sobre TCP/IP, IPoGM e
to del sistema: migracin de procesos, checkpointIPoMX.
restart (congelar uno o varios procesos, mudarlos de
servidor y continuar su funcionamiento en el nuevo
InniBand
host), balanceo de carga, tolerancia a fallos, etc.;
Es una red surgida de un estndar desarrollado especcamente para realizar la comunica Escalabilidad: debe poder detectar automticamencin en clsters. Una de sus mayores ventate nuevos servidores conectados al clster para projas es que mediante la agregacin de canales
ceder a su utilizacin.
(x1, x4 y x12) permite obtener anchos de banda muy elevados. La conexin bsica es de 2
Existen diversos tipos de middleware, como por ejemplo:
Gbit/s efectivos y con quad connection x12
MOSIX, OpenMOSIX, Cndor, OpenSSI, etc.
alcanza los 96 Gbit/s. No obstante, los startups
no son muy altos, se sitan en torno a los 10 s. El middleware recibe los trabajos entrantes al clster y
Dene una conexin entre un nodo de compu- los redistribuye de manera que el proceso se ejecute ms
tacin y un nodo de I/O. La conexin va desde rpido y el sistema no sufra sobrecargas en un servidor.
un Host Channel Adapter (HCA) hasta un Tar- Esto se realiza mediante polticas denidas en el sistema
get Channel Adapter (TCA). Se est usando (automticamente o por un administrador) que le indican
principalmente para acceder a arrays de dis- dnde y cmo debe distribuir los procesos, por un sistema
de monitorizacin, el cual controla la carga de cada CPU
cos SAS.
y la cantidad de procesos en l.
SCI (scalable coherent interface) IEEE standard El middleware tambin debe poder migrar procesos en1596-1992
tre servidores con distintas nalidades:

SISTEMAS DE CLSTERES IMPLEMENTADOS

balancear la carga: si un servidor est muy cargado


de procesos y otro est ocioso, pueden transferirse
procesos a este ltimo para liberar de carga al primero y optimizar el funcionamiento;
Mantenimiento de servidores: si hay procesos corriendo en un servidor que necesita mantenimiento
o una actualizacin, es posible migrar los procesos
a otro servidor y proceder a desconectar del clster
al primero;
Priorizacin de trabajos: en caso de tener varios procesos corriendo en el clster, pero uno de ellos de
mayor importancia que los dems, puede migrarse
este proceso a los servidores que posean ms o mejores recursos para acelerar su procesamiento.

4.6

Ambientes de Programacin Paralela

Los ambientes de programacin paralela permiten implementar algoritmos que hagan uso de recursos compartidos: CPU (central processing unit: unidad central de proceso), memoria, datos y servicios.
Una granja Beowulf.

Sistemas de clsteres implemen- 5.4 Cluster PS2


tados

En el ao 2004, en la Universidad de Illinois (en UrbanaChampaign, Estados Unidos), se explor el uso de con5.1 Beowulf
solas Play Station 2 (PS2) en cmputo cientco y visualizacin de alta resolucin. Se construy un clster conEn 1994, Donald Becker y Thomas Sterling construyeron formado por 70 PS2; utilizando Sony Linux Kit (basado
la primera Beowulf. Fue construida con 16 computado- en Linux Kondora y Linux Red Hat) y MPI.
res personales con procesadores Intel DX4 de 200 MHz,
que estaban conectados a travs de un switch Ethernet. El
rendimiento terico era de 3,2 GFlops.
5.5 Cluster X

5.2

Berkeley NOW

El sistema NOW de Berkeley estuvo conformado por 105


estaciones de trabajo Sun Ultra 170, conectadas a travs
de una red Myrinet. Cada estacin de trabajo contena
un microprocesador Ultra1 de 167 MHz, cach de nivel
2 de 512 KiB, 128 MiB de memoria, dos discos de 2,3
GB, tarjetas de red Ethernet y Myrinet. En abril de 1997,
NOW logr un rendimiento de 10 GFlops.

5.3

Google

Durante el ao 2003, el clster Google lleg a estar conformado por ms de 1,5 millones de computadores personales. Una consulta en Google lee en promedio cientos de megabytes y consume algunos billones de ciclos de
CPU.[cita requerida]

En la lista TOP 500 de noviembre de 2004 fue considerado el sptimo sistema ms rpido del mundo; sin
embargo, en julio de 2005 ocupaba la posicin catorce.
Cluster X fue construido en el Tecnolgico de Virginia
en el 2003; su instalacin fue realizada por estudiantes de
ese instituto. Est constituido por 2200 procesadores Apple G5 de 2,3 GHz. Utiliza dos redes: Inniband 4x para
las comunicaciones entre procesos y Gigabit Ethernet para la administracin. Cluster X posee 4 TiB de memoria
RAM y 176 TB de disco duro, su rendimiento es de 12,25
TFlops. Se lo conoce tambin como Terascale.

5.6 Red Espaola de Supercomputacin


En el ao 2007 se cre la Red Espaola de Supercomputacin, compuesta por 7 clsteres distribuidos en distintas
instituciones espaolas.
Todos los clsteres (a excepcin de las segundas versiones

7
de Magerit y MareNostrum, y el ms reciente Calndula)
estn formados por un nmero variable de nodos con procesadores PowerPC 970FX a 2,2 GHz interconectados
con una red Myrinet. El rendimiento de las mquinas oscilan entre los casi 65 TeraFLOPS proporcionados por
los ms de 10000 ncleos de Marenostrum, los casi 16
TeraFLOPS de Magerit (primera versin) con 2400 procesadores o los casi 3 TeraFLOPS de los 5 nodos restantes.
La actualizacin de Magerit en 2011 mantiene la arquitectura clster por su versatilidad y reemplazando los elementos de cmputo por nodos IBM PS702 con procesadores POWER7 a 3,0 GHz y logrando un rendimiento
ms de 72 TeraFLOPS lo que le convierte en el ms poderoso de Espaa. Esto demuestra la sencillez y exibilidad de la arquitectura: actualizando algunos elementos
se obtienen sistemas ms potentes sin grandes complicaciones.

5.7

Thunder

Thunder fue construido por el Laboratorio Nacional Lawrence Livermore de la Universidad de California. Est
conformado por 4096 procesadores Intel Itanium2 Tiger4
de 1,4 GHz. Utiliza una red basada en tecnologa Quadrics. Su rendimiento es de 19,94 TFlops. Se ubic en la
segunda posicin del TOP 500 durante junio de 2004,
luego en la quinta posicin en noviembre de 2004 y en la
lista de julio de 2005 se ubic en la sptima posicin.

5.8

ASCI Q

ASCI Q fue construido en el ao 2002 por el Laboratorio


Nacional Los lamos, Estados Unidos. Est constituido
por 8192 procesadores AlphaServer SC45 de 1,25 GHz.
Su rendimiento es de 13,88 TFlops. Se ubic en la segunda posicin del TOP 500 durante junio y noviembre de
2003, luego en la tercera posicin en junio de 2004, en la
sexta posicin en noviembre de 2004 y en la duodcima
posicin en julio de 2005.

Gestin de recursos distribuidos:


sistemas gestores de colas
Los sistemas de gestin de colas, gestionan una cola
de ejecucin, planican la ejecucin de las tareas y
gestionan los recursos, para minimizar costes y maximizar rendimiento de las aplicaciones.
Funcionamiento:
Los usuarios envan trabajos con qsub indicando requisitos de memoria, tiempo de procesador y espacio en disco.

El gestor de recursos registra el trabajo.


Tan pronto los recursos pedidos se hallen disponibles, el gestor de colas pone a ejecucin el
trabajo solicitado que segn su planicacin es
el que tiene mayor prioridad. Se utiliza el planicador del gestor de colas en ausencia de planicadores ms avanzados (como Maui / Moab
cluster suite, los cuales pueden ser integrables
en el sistema de colas).
Se puede consultar el estado de los trabajos,
en ejecucin, en espera o terminados, a travs
de qstat
Se puede eliminar un trabajo mediante qdel.
El gestor de colas se congura con qconf.
Salida estndar de trabajos: job.o#job
Salida de error de trabajos: job.e#job
Sistemas gestores de colas populares: Sun Grid Engine (SGE), PBS, Open PBS y Torque.

7 Balanceadores de carga: Linux


Virtual Server
Linux Virtual Server (LVS, IPVS en kernels 2.6.x)
es un servicio de red altamente escalable y de alta
disponibilidad que realiza:
Equilibrado de carga mediante NAT (Network Address Translation), tunneling IP o enrutamiento directo (DR) por medio de un nodo maestro que da servicio a peticiones FTP y
HTTP a los nodos de un clster. Este servicio
es provisto a nivel de kernel (ha de estar compilado el soporte para LVS/IPVS).
NAT hace que el clster funcione con una nica IP
pblica, siendo los paquetes reescritos por el nodo maestro para ocultar los nodos internos. Solo es
aceptable para un nmero pequeo de nodos, por la
sobrecarga que acarrea.
Tunneling IP es similar a NAT, pero el nodo maestro
ya no reescribe los paquetes, siendo su tarea mucho
ms liviana.
El enrutamiento directo (DR) es un sistema an ms
ligero, pero necesita que todos los servidores compartan el mismo segmento de red.

12 ENLACES EXTERNOS

Clusters en aplicaciones cient- 10 Referencias


cas
[1] ABC GNU/Linux, una distribucin basada en Ubuntu y
est dedicada a crear clsteres Beowulf de alto rendimiento con tan solo arrancar en uno de ellos el sistema en modo live o siendo instalado en su disco duro. Los nodos
arrancan diskless a travs de PXE.

Se suelen caracterizar por ser aplicaciones computacionalmente intensivas


Sus necesidades de recursos son muy importantes en
almacenamiento y especialmente memoria.
Requieren nodos y sistemas dedicados, en entornos
HPC y HTC.
Suelen estar controlados los recursos por planicadores tipo Maui y gestores de recursos tipo PBS.
Son en muchas ocasiones cdigos legacy, difciles de
mantener, ya que los dominios de aplicacin suelen
ser difcilmente paralelizables.

[2] Rocks, una distribucin especializada para clsteres,


usando CentOS, que a su vez esta basada en Red Hat Enterprise

11 Vase tambin
Computacin distribuida
Arquitectura de computadores

12 Enlaces externos
Ejemplos: Simulaciones (earth simulator), genmica
computacional, prediccin meteorolgica (MM5), simulacin de corrientes y vertidos en el mar, aplicaciones en
qumica computacional

Manejo de Cluster en WebSphere (IBM) Network


Deployment

Otra visin de clustering en informtica: la clasicacin no supervisada

Clusters en aplicaciones empresariales


Suelen ser aplicaciones no especialmente intensivas
computacionalmente, pero que demandan alta disponibilidad y respuesta inmediata, con lo que los
servicios se estn ejecutando continuamente y no
controlados por un sistema de colas
Es usual que un sistema provea varios servicios. Una
primera aproximacin para realizar una distribucin
del trabajo es separar los servicios:

Experiencia de Cluster con Software Libre openMosix

Conferencia realizada en Elche en el 2004. Explica


clsteres LVS, Beowulf y openMosix.
Lista Top500 con los ordenadores ms potentes del
mundo.
Proyecto de grado sobre clster para procesamiento
de alto rendimiento.
Congurar un LVS
Conguracin HA
Network File System (NFS)

Un servidor web con la BD en un nodo, el


contenedor EJB en otro y el servidor de
pginas web en otro constituye un
claro ejemplo de distribucin en el
mbito empresarial.
Otra aproximacin es instalar una aplicacin web en un clster squid como
proxy-cach, apache/tomcat como servidor :web/de aplicaciones web, memcached como cach de consultas a la base
de datos y mysql como base de datos. Estos :servicios pueden estar replicados en
varios nodos del clster.
Ejemplos: Flickr, Wikipedia y Google.

Lustre
Parallel Virtual File System (PVFS)
Open Source Cluster Application Resources (OSCAR)
ABC GNU/Linux Automated Beowulf Cluster Distribution
Rocks Cluster Distribution
Cndor
Cluster: Deniciones y ejemplos
Cluster uhu

Wikimedia Commons alberga contenido multimedia sobre Clster (informtica)Commons.

13
13.1

Origen del texto y las imgenes, colaboradores y licencias


Texto

Clster (informtica) Fuente: https://es.wikipedia.org/wiki/Cl%C3%BAster_(inform%C3%A1tica)?oldid=84877717 Colaboradores:


PACO, Joseaperez, Sabbut, SpeedyGonzalez, Zwobot, Rosarino, Fortran~eswiki, Avm, Murphy era un optimista, Robotito, La Mantis, LeonardoRob0t, Caos, Rutrus, Mendocino, ICrash, Roadmr~eswiki, Taichi, Rembiapo pohyiete (bot), Marzembre, Drini2, Orgullobot~eswiki,
RobotQuistnix, Superzerocool, Yrbot, Baito, BOT-Superzerocool, BOTijo, YurikBot, GermanX, Yonderboy, Jesuja, HECTOR ARTURO AZUZ SANCHEZ, Eskimbot, Raidentk, Chlewbot, Clizarraga, VictorSanchez2, Hawking, CEM-bot, Pinar~eswiki, -jem-, Ser mone,
Javleztat1965, Thijs!bot, Quezadav, Yeza, Pablojcc, Isha, JAnDbot, Miguelo on the road, Kved, Ingolll, CommonsDelinker, Chabbot, Plux,
Cinevoro, Technopat, Matdrodes, Lucien leGrey, Muro Bot, Adoratrix, SieBot, Loveless, Obelix83, Cobalttempest, Dnl212, Javierito92,
Robenauta, Piero71, DragonBot, Pan con queso, Botito777, Petruss, Lluma, Onixmtz, Jperelli, Paporrubio, HenryContreras, Miaecmiguel,
Miaecbruno, Miaecpedro, AVBOT, Miaecjuan, Miaecmanuel, LucienBOT, Louperibot, Miaecmarcelino, Miaecfernanda, MastiBot, Diegusjaimes, Raysonho, Arjuno3, Santek, Andreasmperu, Luckas-bot, Vivaelcelta, Nixn, ArthurBot, SuperBraulio13, Manuelt15, Xqbot,
Jkbw, Adryitan, Andy.qaf, Panderine!, Exfuent, Mordred.lord, Born2bgratis, Nachosan, Jorge c2010, EmausBot, AVIADOR, HRoestBot, J. A. Glvez, Dondervogel 2, Ebrambot, WikitanvirBot, KLBot2, TeleMania, Mluz.suero, Invadibot, Elvisor, Helmy oved, Ralgisbot,
Eydel.rivero, Addbot, Dan editor, Kimizombie, JacobRodrigues y Annimos: 188

13.2

Imgenes

Archivo:Beowulf-cluster-the-borg.jpg Fuente: https://upload.wikimedia.org/wikipedia/commons/9/9f/Beowulf-cluster-the-borg.jpg


Licencia: Copyrighted free use Colaboradores: ? Artista original: ?
Archivo:Beowulf.jpg Fuente: https://upload.wikimedia.org/wikipedia/commons/8/8c/Beowulf.jpg Licencia: GPL Colaboradores: ? Artista original: User Linuxbeak on en.wikipedia
Archivo:Commons-logo.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/4/4a/Commons-logo.svg Licencia: Public domain Colaboradores: This version created by Pumbaa, using a proper partial circle and SVG geometry features. (Former versions used
to be slightly warped.) Artista original: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version,
created by Reidab.
Archivo:Us-nasa-columbia.jpg Fuente: https://upload.wikimedia.org/wikipedia/commons/3/3d/Us-nasa-columbia.jpg Licencia: Public
domain Colaboradores: http://www.nas.nasa.gov/News/Images/columbia_3.html. Artista original: NASA Ames Research Center/Tom Trower

13.3

Licencia del contenido

Creative Commons Attribution-Share Alike 3.0