Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Indice
1. Introduccin.............................................................................................1 1.1. Objetivo.............................................................................................1 1.2. Que es un Cluster?...........................................................................1 1.3. Tipos de Cluster.................................................................................1 2. Sistema....................................................................................................2 2.1. Componentes de ard!are...............................................................2 2.2. Componentes de So"t!are................................................................2 2.3. Con"i#uracin de las ma$uinas virtuales...........................................2 2.%. &elican &C........................................................................................2 3. Instalacin ' con"i#uracin de &elican &C sobre (irtual)o*....................% 3.1. &rimeros pasos..................................................................................% 3.2. Con"i#uracin del nodo m+ster........................................................., 3.3. Con"i#uracin de los nodos esclavos.................................................3.%. Clonacin de los nodos esclavos.....................................................1. %. Inicio ' con"i#uracin de &elican &C......................................................11 %.1. Inicio ' con"i#uracin del nodo m+ster............................................11 %.2. Inicio ' con"i#uracin de los nodos esclavos...................................1% %.3. Con"i#uracin "inal del nodo m+ster................................................1, %.% Comandos /tiles de &elican &C.......................................................10 1#re#ar un nuevo nodo esclavo.........................................................10 1pa#ar todos los nodos esclavos........................................................10 Iniciar entorno #ra"ico.........................................................................10 ,. )enc2mar3s...........................................................................................14 ,.1. 56O&S 75loatin# point operation per seconds8.................................14 Conclusin..................................................................................................19 )iblio#r+"ica...............................................................................................2.
1. Introduccin
1.1. Objetivo
Se propuso como objeti o instalar ! con"igurar un Cluster con una distribuci#n GN$/%inu&. Se utili'aran ma(uinas irtuales si funciona en maquinas virtuales funciona en maquinas fsicas para virtualizar un nodo mster y dos nodos esclavos.
#odemos encontrar muc$os mas tipos de (luster, y combinaciones de ellos, solo se nombraron los tipos mas importantes, y mas usados.
2. Sistema
2.1. Componentes de Hardware
Intel *uad Core ++,, -..G/' 0 1. n2cleos3 -G4 5emoria 675 8,,G4 Disco r9gido
2.$. %eli!anH%C
>s una distribuci#n de GN$/%inu& basa en Debian para la creaci#n de Cluster de alto rendimiento en poco minutos< iene en "ormato iso0h!brid1CD ! $S43 de esta "orma podemos bootear directamente la imagen desde un CD o un pendri e $S4. Pelican/PC le permite al usuario reali'ar computo paralelo usando 5PI. >l nodo m?ster bootea desde la imagen ! los nodos escla os bootean utili'ando P@>1Preboot e@ecution >n ironment3. )odos los nodos del Cluster obtiene el sistema de archi o de la misma imagen< de esta "orma garanti'a (ue todos ellos ejecutan el mismo so"tware. Pelican/PC permite instalar pa(uetes nue os utili'ando el manejador de pa(uetes apt0 get< como esta basada en la distribuci#n Debian tenemos una gran cantidad de pa(uetes de so"tware. Cara!ter&sti!as a desta!ar' Disponible para procesadores de +. ! A- bits. Contiene lo ultima ersi#n estable del pa(uete Bpen5PI. GN$ Bcta e lenguaje de alto ni el para reali'ar c?lculos num=ricos< es considerado la ersi#n libre de 57)%74. $tili'a todo el poder de los Cluster (ue utili'an 5PI< di idiendo los c?lculos en di"erentes nodos. %inkpack librer9a especial para el el calculo del ?lgebra lineal en Cluster.
/erramientas de con"iguraci#n nati as de Pelican/PC. 7utocon"iguraci#n de lla es publicas/pri adas para la comunicaci#n a tra =s de SS/. >scritorio @CC> con"igurado ! listo para usar. 7demas contiene algunos tutoriales de Pelican/PC en "ormato PDC ! con su respecti o lector de PDCs< na egador web< ! algunas herramientas gr?"icas.
(i ura 3.2.1 - 6ueva maquina virtual %uego como se e en la "igura A.-.- no pide (ue ingresemos la cantidad de memoria 675 (ue a a utili'ar nuestro nodo m?ster Debemos setear un poco mas de -8+54 1por "a or (ue sea potencia de -3< en el ejemplo seteamos 8;-54. Despu=s de setear la memoria 675< se nos pide (ue indi(uemos si amos a utili'ar un disco "9sico. Pelican/PC bootea sobre la memoria 675 as9 (ue no sera necesario el disco. Cinali'amos la creaci#n ! nos deber? aparecer la ma(uina :irtual4o&. irtual en nuestro
(i ura 3.2.2 (antidad de memoria que tendr disponible nuestra maquina virtual /acemos click derecho sobre la ma(uina irtual< ! nos dirigimos a la con"iguraci#n1settings3. Seleccionamos la opci#n DS!stemE< desmarcamos todas las opciones donde dice D4oot BrderE< ! dejamos seleccionado solo el checkbo& DCD/D:D0 6B5E. >sto es necesario para (ue nuestra ma(uina irtual cuando inicie sepa (ue debe bootear sobre la imagen .ISB (ue bajamos anteriormente< "igura A.-.A.
$na e' con"igurado el orden de booteo< nos dirigimos a la opci#n Storage< ! seleccionamos la imagen (ue amos a bootear< hacemos click sobre el CD06B5 (ue aparece sobre el lado derecho. 7demas seleccionamos el checkbo& %i e CD/D:D< como se indica en la "igura.
7hora debemos con"igurar la red de nuestra ma(uina irtual< como se e en la "igura A.-... Nos dirigimos a la opci#n (ue dice Network. Seleccionamos DInternal NetworkE< ! le damos un nombre a nuestra red< por ejemplo DpcpdE.
(i ura 3.2.$ - (onfiguracin de la red sobre la maquina virtual del nodo mster Con estos pe(ueFos detalles de con"iguraci#n !a tendr9amos con"igurada la ma(uina irtual para nuestro nodo m?ster.
7hora amos a la opci#n DNetworksE ! con"iguramos el adaptador de red para (ue trabaje sobre la misma red (ue nuestro nodo m?ster< completamos el nombre de la red como DpcpdE. :ea la "igura de la derecha.
(i ura 3.$.1 (lonacin de una maquina virtual Ga tenemos dos ma(uinas irtuales para los nodos escla os< podemos agregar cuantos (ueramos de estos clones< pero no es recomendable !a (ue son ma(uinas irtuales ! en el "ondo ha! ; sola ma(uina ejecutando todas estas ma(uinas irtuales.
1.
Como primer instancia podemos er el men2 del Grub como se muestra en la "igura ..;.;< donde nos da a elegir iniciar la distribuci#n Dli eE o Dli e 1"ailsa"e3E< ! otras opciones para comprobar la memoria ! una a!uda. Seleccionamos la opci#n Dli eE.
11
>speramos a (ue inicie. G nos mostrara la pantalla de Pelican Setup como se e en la "igura de la derecha< le damos al bot#n BH. %uego nos pedir? si (ueremos crear un directorio home/user con archi os de prueba ! unos tutoriales< seguimos con el bot#n Ges. G por ultimo nos pide (ue cambiemos el password del usuario DuserE< ademas de cambiarlo deben recordarlo< sera el password (ue usaran todos los nodos escla os ! el m?ster $na e' "inali'ada la con"iguraci#n podemos er en la "igura ..;.- el login del sistema.
12
Ga booteamos ! con"iguramos a medias nuestro Cluster< ahora ingresamos con el usuario DuserE ! el password (ue seteamos en el paso anterior. $na e' logueados< ejecutamos el comando DpelicanIsetupE - pelican8setup
$na e' iniciado nos aclara (ue debemos tener cuidado con los ser idores D/CP (ue est=n en nuestra red en com2n< por(ue Pelican/PC debe manejar un ser idor D/CP para darle las direcciones IP a nuestros nodos escla os. Como estamos emulando una red< no tenemos este problema< pero si lo estu i=ramos haciendo "9sicamente< ! utili'amos alg2n router (ue tiene el ser icio de D/CP acti ado deber9amos desacti ar esta opci#n. Siguiendo los pasos< le damos al bot#n Ges< nos dir? (ue (uiere reiniciar algunos componentes< seguimos con el bot#n Ges ! !a estar9amos preparados para iniciar nuestros nodos escla os.
13
Como puede er en la "igura ..-.;< el nodo escla o busca un ser idor D/CP para (ue le asigne una IP< ac? es cuando en nodo m?ster le asigna una IP a cada nodo escla o. %uego de asignarle la direcci#n IP le en i? una imagen del sistema al nodo escla o< ! de esta "orma el nodo escla o bootea. Inicia el kernel ! los procesos.
1%
$na e' (ue todos los nodos escla os "ueron iniciados 1"igura ..-.-3< debemos ol er al nodo m?ster para terminar de acoplar nuestro Cluster.
(i ura $.3.1 :e encontraron los * nodos esclavos Ga tenemos - nodos escla os detectados por el nodo m?ster< por lo tanto podemos seguir< pulsamos en el bot#n DGesE ! listo< !a tenemos nuestro Cluster "uncionando. Pueden er la "igura siguiente ..A.-< del lado i'(uierdo tenemos los dos nodos escla os ! del lado derecho tenemos nuestro nodo m?ster.
1,
10
'. $enc(mar)s
-.1. (.O%S /(loatin point operation per se!onds0
%os C%BPS son una medida de rendimiento de una computadora< especialmente en c?lculos cient9"icos (ue re(uieren un gran uso de coma "lotante. Por lo tanto amos a ejecutar un pe(ueFo benchamark (ue trae el propio Pelican/PC para er la cantidad de C%BPS (ue tiene nuestro Cluster Para esto debemos ejecutar el binario D"lopsE pero bajo 5PI< de esta "orma el Cluster se comunica con sus nodos escla os. >n la "igura 8.;.; se puede er como los nodos escla os inicia en el proceso D"lopsE. >speci"icamos el archi o con los hosts de nuestra red - mpirun $ostfiles tmp;b$osts .;flops
>l archi o DbhostsE contiene las direcciones IP de todos los nodos escla os ! la propia del nodo m?ster >ste archi o es generado autom?ticamente cuando se inicia ! con"igura el nodo m?ster Igual (ue las lla es publicas del nodo m?ster est?n distribuidas en los nodos escla os para (ue se puedan conectar 9a SS/ ! sin necesidad de ingresar el password en cada comunicaci#n.
14
Btras opci#n (ue podemos agregarle al comando mpirun son la cantidad de procesadores (ue amos a usar del Cluster< por ejemplo si (ueremos (ue el comando D"lopsE solo se ejecute en - procesadores< podemos agregar el "lag D0np -E de esta "orma< el nodo m?ster< buscara dos nodos escla os distintos ! ejecutara el comando en solo estos dos. Pelican/PC tiene la propiedad de buscar los nodos escla os menos cargados ! asignar el procesos en esos nodos. Como podemos er en la "igura 8.;.- el nodo m?ster da la orden ! luego los dos nodos escla os ejecutan el comando D"lopsE< ! obtenemos los resultados para los procesadores (ue utili'amos. Para mostrar mejor la idea< ahora amos a ejecutar ; solo proceso de D"lopsE< entonces el Cluster deri a este proceso a un solo nodo escla o ! obtenemos los resultados de ; solo nodo< podemos er en la "igura 8.;.- sobre el nodo escla o de arriba (ue se esta ejecutando el comando D"lopsE ! sobre el nodo escla o de abajo no se esta ejecutando el proceso.
(i ura -.1.1 E)ecucin del comando flops con 4 y * procesadores >jecuci#n de D"lopsE en - procesadores - mpirun $ostfiles tmp;b$osts -np * .;flops
1-
Conclusin
Pelican/PC es una mu! buena distribuci#n para crear un Cluster de alto rendimiento en pocos minutos< totalmente autocon"igurable< detecci#n ! con"iguraci#n de nodos escla os casi transparentes. 7demas de ser una ersi#n %i e0CD se puede instalar al disco de manera sencilla pero eso escapa de nuestro in"orme. Contiene un entorno gr?"ico li iano ! con"igurable1@CC>3 especial para la gente (ue no le gusta el shell< o desea manejar mas terminales de los normal o utili'ar herramientas de ploteo de "unciones matem?ticas. :iene con librer9as especiales para la programaci#n paralela ! ademas librer9as de calculo num=rico ! algebraico (ue tambi=n hacen uso del sistema Cluster. Gran cantidad de so"tware para instalar !a (ue Pelican/PC esta basada en Debian< ! utili'a todos sus repositorios< con un simple comando1apt0get install 7P%IC7CIBN3 podemos instalar pa(uetes.
19
$ibliogrfica
D4eowul" Cluster Computing with %inu& b! )homas SterlingE. %ibro. DPagina o"icial de la distribuci#n Pelican/PCE. Jeb. Khttp://idea.uab.es/mcreel/Pelican/PCL DCoro o"icial de la distribuci#n Pelican/PCE. Coro. Jeb. Khttp://pelicanhpc.MNNN;O.n..nabble.com/L DComputer ClusterE. Jikipedia. Jeb. Khttp://en.wikipedia.org/wiki/ComputerIclusterL DGeneral in"ormation about the Bpen 5PI ProjectE. Jeb. Khttp://www.open0mpi.org/"a(/Pcategor!QgeneralL DGN$ Bcta eE. 7plicaci#n de calculo num=rico. Jeb. Khttp://www.gnu.org/so"tware/octa eL
2.