Está en la página 1de 36

2

RESUMEN
En muchas ramas de la ciencia, la complejidad de los problemas que se estudian requiere
contar con acceso a una mquina que sea capaz de desarrollar varios miles de millones de
operaciones por segundo para esto la tecnologa de luster nos dan una e!celente soluci"n#
En el desarrollo de este in$orme veremos los elementos que componen un cluster as
como asi como las consideraciones que se deben tener en cuenta al momento de construir
uno#
%sicamente se hablara del cluster %E&'U(), sus componentes * parte de la
con$iguraci"n de uno con clientes de clase +,S-(ESS#
3
,N+,E
,ntroducci"n .
,# /0ue es un cluster1
2#2# +e$inici"n 3
2#4# %ene$icios de la 5ecnologa luster 6
2#7# lasi$icaci"n de los lusters 8
2#9 omponentes de un luster :
2#.# Uso de los lusters 2;
2#.#2# lusters en <plicaciones ient$icas 2;
2#.#4# lusters en <plicaciones Empresariales 22
,,# luster %E&'U()
4#2# =ard>are 24
4#4# So$t>are 29
4#7# lasi$icaciones de %E&'U() 2.
4#7#2# lase , 2.
4#7#4# lase ,, 23
,,,# Elementos de un luster %E&'U()
7#2 +isco 26
7#2#2# lientes sin disco ?+is@lessA 26
7#2#4# ,nstalaci"n (ocal ompleta en los lientes 26
7#2#7# ,nstalaci"n N)S Estndar 28
7#2#9# Sistemas de <rchivos +istribuidos 28
7#4# Memoria 28
7#7# Brocesador 2:
7#9# Simetric MultiBrocessor ?SMBA 2:
7#3# Massivel* Barallel Brocessing ?MBBA 4;
7#3# Red 4;
4
,C# ,mplementaci"n * onstrucci"n
9#2# onsideraciones 42
9#4# =<R+'<RE
9#4#2# omunicaci"n entre nodos 44
9#4#4# onsideraciones para equipos sin disco duro 44
9#7# S&)5'<RE
9#7#2# ,nstalaci"n * arranque del sistema operativo en el servidor central 47
9#7#4# ,nstalaci"n * con$# de so$t>are de inicializaci"n en los nodos ?dis@lessA 47
9#7#4#2# <signaci"n automtica de direcci"n ,B 49
9#7#4#4# Servidor de archivos de arranque 5)5B 4.
9#7#4#7# argador de arranque 43
9#7#4#9 reaci"n del @ernel para los nodos 43
9#7#7# &rganizaci"n de sistemas de archivos para N)S 46
9#7#9# Servidor N)S 7;
9#7#.# on$iguraci"n por nodo
9#7#.#2# Montaje de los sistemas de archivos remotos 72
9#7#.#4# on$iguraci"n cliente N,S 74
9#7#3# <rchivo DetcDhosts 79
&N(US,&N 7.
RE)EREN,<S 73
<NEE& 76
5
,ntroducci"n
El surgimiento de plata$ormas computacionales de comunicaci"n * procesamiento
estndares de bajo costo, le ha brindado la oportunidad a los programadores acadFmicos de
crear herramientas computacionales ?sistemas de operaci"n, compiladores, depuradores A del
dominio pGblico o de costo razonable# Esta realidades permiten la implantaci"n de c"digos
paralelizados sobre este tipo de plata$ormas obteniendo un rendimiento competitivo en
relaci"n a equipos paralelos especializados cu*os costos de operaci"n * mantenimiento son
elevados#
Una de las herramientas de ms auge en la actualidad son los llamados cluster %eo>ul$, los
cuales presentan diversas capacidades para el c"mputo paralelo con un relativo alto
rendimiento#
6
,# /0ue es un luster1
2#2# +e$inici"n
El tFrmino cluster se aplica a los conjuntos o conglomerados de computadoras construidos
mediante la utilizaci"n de componentes de hard>are comunes * que se comportan como si
$uesen una Gnica computadora# =o* en da juegan un papel importante en la soluci"n de
problemas de las ciencias, las ingenieras * del comercio moderno#
(a tecnologa de clusters ha evolucionado en apo*o de actividades que van desde
aplicaciones de superc"mputo * so$t>are de misiones crticas, servidores 'eb * comercio
electr"nico, hasta bases de datos de alto rendimiento, entre otros usos#
El c"mputo con clusters surge como resultado de la convergencia de varias tendencias
actuales que inclu*en la disponibilidad de microprocesadores econ"micos de alto
rendimiento * redes de alta velocidad, el desarrollo de herramientas de so$t>are para
c"mputo distribuido de alto rendimiento, as como la creciente necesidad de potencia
computacional para aplicaciones que la requieran#
Simplemente, cluster es un grupo de mGltiples computadores unidos mediante una red de
alta velocidad, de tal $orma que el conjunto es visto como un Gnico ordenador, ms potente
que los comunes de escritorio#
lusters son usualmente empleados para mejorar el rendimiento *Do la disponibilidad por
encima de la que es provista por un solo computador tpicamente siendo ms econ"mico que
computadores individuales de rapidez * disponibilidad comparables#
+e un cluster se espera que presente combinaciones de los siguientes serviciosH
<lto Rendimiento
Un cluster de alto rendimiento es un conjunto de computadores que est diseIado
para dar altas prestaciones en cuanto a capacidad de clculo#
<lta +isponibilidad
Es un conjunto de dos o ms mquinas que se caracterizan por mantener una serie de
servicios compartidos * por estar constantemente monitorizndose entre s#
Equilibrio de la carga
Un cluster de balanceo de carga o de c"mputo adaptativo est compuesto por uno
o ms computadores ?llamados nodosA que actGan como $rontend del cluster, * que
se
7
ocupan de repartir las peticiones de servicio que reciba el cluster, a otros
computadores del cluster que $orman el bac@end de Fste#
Escalabilidad
(a escalabilidad es la propiedad deseable de un sistema, una red o un proceso, que
indica su habilidad para, o bien manejar el crecimiento continuo de trabajo de
manera $luida, o bien para estar preparado para hacerse ms grande sin perder
calidad en los servicios o$recidos
(a construcci"n de los computadores del cluster es ms $cil * econ"mica debido a su
$le!ibilidadH pueden tener todos la misma con$iguraci"n de hard>are * sistema operativo
?cluster homogFneoA, di$erente rendimiento pero con arquitecturas * sistemas operativos
similares ?cluster semihomogFneoA, o tener di$erente hard>are * sistema operativo ?cluster
heterogFneoA#, lo que hace ms $cil * econ"mica su construcci"n#
Bara que un cluster $uncione como tal, no basta solo con conectar entre s los computadores,
sino que es necesario proveer un sistema de manejo del cluster, el cual se encargue de
interactuar con el usuario * los procesos que corren en Fl para optimizar el $uncionamiento#
2#4# %ene$icios de la 5ecnologa luster
(as aplicaciones paralelas escalables requierenH buen rendimiento, baja latencia,
comunicaciones que dispongan de gran ancho de banda, redes escalables * acceso rpido a
archivos# Un cluster puede satis$acer estos requerimientos usando los recursos que tiene
asociados a Fl#
onstruir un cluster puede aportar importantes ventajas en gran variedad de aplicaciones
* ambientesH
,ncremento de velocidad de procesamiento o$recido por los clusters de alto
rendimiento#
,ncremento del nGmero de transacciones o velocidad de respuesta o$recido por los
clusters de balanceo de carga#
,ncremento de la con$iabilidad * la robustez o$recido por los clusters de
alta disponibilidad#
8
(a tecnologa cluster permite a las organizaciones incrementar su capacidad de
procesamiento usando tecnologa estndar, tanto en componentes de hard>are como de
so$t>are que pueden adquirirse a un costo relativamente bajo#
2#7# lasi$icaci"n de los lusters
El tFrmino cluster tiene di$erentes connotaciones para di$erentes grupos de personas# (os
tipos de clusters, establecidos en base al uso que se de a los clusters * los servicios que
o$recen, determinan el signi$icado del tFrmino para el grupo que lo utiliza# (os clusters
pueden clasi$icarse con base en sus caractersticas# Se pueden tener clusters de alto
rendimiento ?=B J =igh Ber$ormance lustersA, clusters de alta disponibilidad ?=< J =igh
<vailabilit*A o clusters de alta e$iciencia ?=5 J =igh 5hroughputA#
<lto Rendimiento ?=BAH Son clusters en los cuales se ejecutan tareas que requieren de
gran capacidad computacional, grandes cantidades de memoria, o ambos a la vez# El
llevar a cabo estas tareas puede comprometer los recursos del cluster por largos periodos
de tiempo#
<lta +isponibilidad ?=<AH Son clusters cu*o objetivo de diseIo es el de proveer
disponibilidad * con$iabilidad# Estos clusters tratan de brindar la m!ima disponibilidad
de los servicios que o$recen# (a con$iabilidad se provee mediante so$t>are que detecta
$allos * permite recuperarse $rente a los mismos, mientras que en hard>are se evita tener
un Gnico punto de $allos#
<lta E$iciencia ?=5AH Son clusters cu*o objetivo de diseIo es el ejecutar la ma*or
cantidad de tareas en el menor tiempo posible# E!iste independencia de datos entre las
tareas individuales# El retardo entre los nodos del cluster no es considerado un gran
problema#
(os clusters pueden tambiFn clasi$icar como lusters de ,5 omerciales ?<lta
disponibilidad, <lta e$icienciaA * lusters ient$icos ?<lto rendimientoA# < pesar de las
discrepancias a nivel de requerimientos de las aplicaciones, muchas de las caractersticas de
las arquitecturas de hard>are * so$t>are, que estn por debajo de las aplicaciones en todos
9
estos clusters, son las mismas# Ms aGn, un cluster de determinado tipo, puede tambiFn
presentar caractersticas de los otros#
2#9# omponentes de un luster
En general, un cluster necesita de varios componentes de so$t>are * hard>are para poder
$uncionar# 0ue son los siguientesH
NodosH Bueden ser simples computadores, sistemas multi procesador o estaciones de
trabajo ?workstationsA# En in$ormtica, de $orma mu* general, un nodo es un punto de
intersecci"n o uni"n de varios elementos que con$lu*en en el mismo lugar#
%ajo el conte!to de cluster tenemos dos tipos de nodos, que sonH
Nodos +edicadosH los nodos no disponen de teclado, mouse ni monitor * su uso est
e!clusivamente dedicado a realizar tareas relacionadas con el
cluster#
Nodos no dedicadosH los nodos disponen de teclado, mouse * monitor * su uso no est
e!clusivamente dedicado a realizar tareas relacionadas con el cluster, el cluster hace uso
de los ciclos de reloj que el usuario del computador no esta utilizando para realizar sus
tareas#
<lmacenamientoHEl almacenamiento puede consistir en una N<S, una S<N, o
almacenamiento interno en el servidor# El protocolo ms comGnmente utilizado es N)S
?Net>or@ )ile S*stemA, sistema de $icheros compartido entre servidor * los nodos# Sin
embargo e!isten sistemas de $icheros espec$icos para clusters como (ustre ?)SA *
BC)S4#
Sistemas &perativosH +ebe ser multiproceso, multiusuario# &tras caractersticas
deseables son la $acilidad de uso * acceso * permitir adems mGltiples procesos *
usuarios#
one!iones de RedH (os nodos de un cluster pueden conectarse mediante una simple
red Ethernet con placas comunes ?adaptadores de red o N,sA, o utilizarse tecnologas
especiales de alta velocidad como )ast Ethernet, Kigabit Ethernet, M*rinet, ,n$iniband,
S,, etc#
Middle>areH Es un so$t>are que generalmente actGa entre el sistema operativo * las
aplicaciones con la $inalidad de proveer a un cluster lo siguienteH
Una inter$az Gnica de acceso al sistema, denominada SS, ? Single System
ImageA,
10
10
la cual genera la sensaci"n al usuario de que utiliza un Gnico ordenador mu*
potenteL
=erramientas para la optimizaci"n * mantenimiento del sistemaH migraci"n de
procesos, checkpointrestart ?congelar uno o varios procesos, mudarlos de
servidor * continuar su $uncionamiento en el nuevo hostA, balanceo de carga,
tolerancia a $allos, etc#L
EscalabilidadH debe poder detectar automticamente nuevos servidores
conectados al cluster para proceder a su utilizaci"n#
E!isten diversos tipos de middle>are, como por ejemploH M&S,E, &penM&S,E,
ondor, &penSS(, etc#
Brotocolos de omunicaci"n * servicios
<plicaciones
<mbientes de Brogramaci"n BaralelaH (os ambientes de programaci"n paralela
permiten implementar algoritmos que hagan uso de recursos compartidosH BU ?entral
Brocessing UnitA, memoria, datos * servicios#
2#.# Uso de los lusters
2#.#2# lusters en <plicaciones ient$icas
Se suelen caracterizar por ser aplicaciones computacionalmente intensivas
Sus necesidades de recursos son mu* importantes en almacenamiento *
especialmente memoria#
Requieren nodos * sistemas dedicados, en entornos =B * =5#
Suelen estar controlados los recursos por plani$icadores tipo Maui * gestores de
recursos tipo B%S#
Son en muchas ocasiones c"digos legac*, di$ciles de mantener, *a que los dominios
de aplicaci"n suelen ser di$cilmente paralelizables#
EjemplosH Simulaciones ?earth simulatorA, gen"mica computacional, predicci"n
meteorol"gica, simulaci"n de corrientes * vertidos en el mar, aplicaciones en
qumica computacional#
11
11
2#.#4# lusters en <plicaciones Empresariales
Suelen ser aplicaciones no especialmente intensivas computacionalmente, pero que
demandan alta disponibilidad * respuesta inmediata, con lo que los servicios se estn
ejecutando continuamente * no controlados por un sistema de colas
Es usual que un sistema provea varios servicios# Una primera apro!imaci"n para
realizar una distribuci"n
+el trabajo es separar los
serviciosH
Un servidor >eb con la %+ en un nodo, el contenedor EM% en otro * el servidor
de pginas >eb en otro constitu*e un
claro ejemplo de distribuci"n en el mbito empresarial#
&tra apro!imaci"n es instalar una aplicaci"n >eb en un clGster squid como
pro!*cachF, apacheDtomcat como servidor >eb de aplicaciones >eb,
memcached como cachF de consultas a la base de datos * m*sql como base de
datos# Estos servicios pueden estar replicados en varios nodos del clGster#
EjemplosH $lic@r, >i@ipedia *
google#
12
12
,,# luster %E&'U()
%eo>ul$ no es un paquete de so$t>are especial, ni una nueva topologa de red ni un nGcleo
modi$icado# %eo>ul$ es una tecnologa para agrupar computadores basados en el sistema
operativo (inu! para $ormar un supercomputador virtual paralelo# En 2::9 bajo el
patrocinio del pro*ecto ESS del entro de la E!celencia en iencias de los +atos * de la
,n$ormacion del Espacio ?ES+,SA, 5homas Sterling * +on %ec@er crearon el primer
cluster %eo>ul$ con $ines de investigaci"n#
< continuaci"n se describe los componentes de hard>are * so$t>are que con$orman un
cluster %eo>ul$#
4#2# =ard>are
%eo>ul$ posee una arquitectura basada en multicomputadores el cual puede ser utilizado
para computaci"n paralela# Este sistema consiste de un nodo maestro * uno o ms nodos
esclavos conectados a travFs de una red ethernet u otra topologa de red# Esta construido
con componentes de hard>are comunes en el mercado, similar a cualquier B capaz de
ejecutar (inu!, adaptadores de Ethernet * s>itches estndares# omo no contiene
elementos especiales, es totalmente reproducible#
Una de las di$erencias principales entre %eo>ul$ * un cluster de estaciones de trabajo
?&', cluster o$ >or@stationsA es el hecho de que %eo>ul$ se comporta ms como
una sola mquina que muchas estaciones de trabajo# En la ma*ora de los casos los nodos
esclavos no tienen monitores o teclados * son accedidos solamente va remota o por terminal
serial#
El nodo maestro controla el cluster entero * presta servicios de sistemas de archivos a los
nodos esclavos# Es tambiFn la consola del cluster * la cone!i"n hacia el mundo e!terior#
(as mquinas grandes de %eo>ul$ pueden tener ms de un nodo maestro, * otros
nodos dedicados a diversas tareas espec$icas, como por ejemplo, consolas o
estaciones de supervisi"n# En la ma*ora de los casos los nodos esclavos de un
sistema %eo>ul$ son estaciones simples# (os nodos son con$igurados * controlados por el
nodo maestro, * hacen solamente lo que Fste le indique# En una con$iguraci"n de
esclavos sin disco duro, estos incluso no saben su direcci"n ,B hasta que el maestro les
dice cul es#
13
13
<rquitectura del luster %eo>ul$
Entre de las con$iguraciones de hard>are utilizadas para armar este tipo de cluster cluster
son los arreglos de discos o R<,+# R<,+ quiere decir NRedundance <rra* ,ne!pansibles
+is@OP, que en espaIol signi$ica Narreglo redundante de discos no e!pandiblesP, es decir un
arreglo construido a partir de discos de mediana capacidad que se encuentran comGnmente
en el mercado#
Keneralmente los dispositivos
2
utilizados para construir un arreglo R<,+ son particiones
hechas sobre la agrupaci"n de varios discos# omGnmente las particiones que $orman parte
del R<,+ se encuentran en di$erentes discos#
+ependiendo de las caractersticas que se le quiera dar al arreglo de discos ?R<,+A,
podemos clasi$icar los arreglos por niveles o modos# Estos niveles o modos sonH
Modo (nealH Es la combinaci"n de dos o ms discos, para $ormar un disco $sico , es
decir los discos son concatenados para $ormar un disco con ma*or capacidad, pero al
escribir en el arreglo, primero se llena el primer disco, despuFs el segundo * as
sucesivamente, en $orma lneal#
Modo R<,+;H 5ambiFn es llamado modo stripe# Es similar al modo anterior,
sin
2 la palabra dispositivo, puede re$erirse a una unidad de disco completa, a una partici"n de disco o incluso a un
conjunto de particiones * de discos enteros agrupados en un arreglo R<,+#
14
14
embargo no actGa como una concatenaci"n de discos, sino que realiza un balance de
carga ,D& entre los discos, como resultado se obtiene un alto rendimiento# Bor ello esta
con$iguraci"n es seleccionada cuando se desea ma*or velocidad de lectura * escritura#
Modo R<,+2H En este modo presenta redundancia de datos, es decir que la
in$ormaci"n se dGplica en todos los dispositivos que $orman parte del R<,+, por lo tanto
la capacidad del arreglo es igual a la capacidad del disco ms pequeIo ?el denominador
comGn ms bajoA# En otras palabrasH realizar un R<,+2 con un disco de 2;; M% * otro
de 2 K% no se puede considerar como una buena idea#
Modo R<,+9H En este nivel, un disco se encarga de almacenar in$ormaci"n de paridad
en un disco * escribe los datos en otro disco#
Modo R<,+.H Este nivel es similar a lo anterior, con la di$erencia que el almacenaje de
la paridad se hace de $orma distribuida, es decir que la in$ormaci"n de la paridad es
almacenada entre los dispositivos que $orman parte del arreglo#
Se recomienda que los dispositivos que van a $ormar parte del arreglo, sean de la misma
capacidad#
4#4# So$t>are
%eo>ul$ utiliza como sistema operativo cualquier distribuci"n (inu!# <dems usa
bibliotecas de pase de mensajes como BCM ?Barallel Cirtual MachineA, MB, ?Message
Basing ,nter$aceA
4
# En sus inicios, %eo>ul$ empleaba la distribucion de linu! Slac@>are,
ahora la ma*ora de los cluster ha migrado a la distribuci"n de Red=at por su $cil
administraci"n del sistema#
Sin lugar a duda los cluster presenta una alternativa importante para varios problemas
particulares, no solo por su economa, sino tambiFn porque pueden ser diseIados * ajustados
para aplicaciones espec$icas#
Una de las alternativas para manejar los recursos de un cluster beo>ul$ es
M&S,E#
Mosi! es una herramienta desarrollada para sistemas tipo UN,E, cu*a caracterstica
resaltante es el uso de algoritmos compartidos, los cuales estn diseIados para responder al
instante a las variaciones en los recursos disponibles, realizando el balanceo e$ectivo de
la
4 %ibliotecas de programaci"n paralela
15
15
carga en el cluster mediante la migraci"n automtica de procesos o programas de un nodo a
otro en $orma sencilla * transparente#
El uso de Mosi!
7
en un cluster de BOs hace que Fste trabaje de manera tal, que los nodos
$uncionan como partes de un solo computador# El principal objetivo de esta herramienta es
distribuir la carga generada por aplicaciones secuenciales o paralelizadas#
Una apro!imaci"n de balanceo de carga es realizada por los usuarios a la hora de asignar los
di$erentes procesos de un trabajo paralelo a cada nodo, habiendo hecho una revisi"n previa
de $orma manual del estado de dichos nodos#
(os paquetes utilizados generalmente para tal labor son BCM * MB,# Este tipo de so$t>are,
dispone de herramientas para la asignaci"n inicial de procesos a cada nodo, sin considerar la
carga e!istente en los mismos ni la disponibilidad de la memoria libre de cada uno# Estos
paquetes corren a nivel de usuario como aplicaciones ordinarias, es decir son incapaces de
activar otros recursos o de distribuir la carga de trabajo en el cluster dinmicamente# (a
ma*ora de las veces es el propio usuario el responsable del manejo de los recursos en los
nodos * de la ejecuci"n manual de la distribuci"n o migraci"n de programas#
< di$erencia de estos paquetes, Mosi! realiza la localizaci"n automtica de los recursos
globales disponibles * ejecuta la migraci"n dinmica Non linePO de procesos o programas
para asegurar el aprovechamiento al m!imo de cada nodo#
4#7# lasi$icaciones de %E&'U()
Bara establecer las di$erencias entre los distintos tipos de sistemas %eo>ul$ se presenta la
siguiente clasi$icaci"nH
4#7#2# lase ,
Son sistemas compuestos por mquinas cu*os componentes cumplen con la prueba de
certi$icaci"n Qomputer ShopperQ lo que signi$ica que sus elementos son de uso comGn, *
pueden ser adquiridos mu* $cilmente en cualquier tienda distribuidora# +e esta manera,
7 Esta tecnologa basada en (inu!, permite realizar balanceo de carga para procesos particulares en un cluster#
<umenta as la capacidad * velocidad de c"mputo, pero, internamente tan s"lo balancea la carga de las tareas en
varias mquinas#
16
16
estos clusters no estn diseIados para ningGn uso ni requerimientos en
particular#
4#7#4# lase ,,
Son sistemas compuestos por mquinas cu*os componentes no pasan la prueba de
certi$icaci"n Qomputer ShopperQ lo que signi$ica que sus componentes no son de uso
comGn * por tanto no pueden encontrarse con la misma $acilidad que los componentes de
sistemas de la clase anterior# +e tal manera, pueden estar diseIados para algGn uso o
requerimiento en particular# (as mquinas ubicadas en esta categora pueden presentar un
nivel de prestaciones superior a las de la clase ,#
17
17
,,,# Elementos de un luster %E&'U()
< la hora de construir un cluster %eo>ul$ es necesario tener en cuenta diversos $actores para
el diseIo del mismo para tomar decisiones que contribu*an al mejor desenvolvimiento de la
mquina segGn nuestros prop"sitos#
(os di$erentes puntos que se deben estudiar en el diseIo de un cluster %eo>ul$ son los
siguientes#
7#2 +isco
E!isten varios mFtodos para con$igurar los medios de almacenamiento en un cluster
%eo>ul$, los cuales di$ieren en rendimiento, precio * $acilidades en la
administraci"n#
7#2#2# lientes sin disco ?+is@lessA
(os nodos esclavos o clientes no poseen disco duro interno * toman todos los sistemas de
archivos a travFs de la red# Es el nodo maestro el que proporciona a travFs de N)S los
sistemas de archivos para los nodos esclavos#
(a principal ventaja de esta con$iguraci"n es la $acilidad en la administraci"n del cluster *a
que al agregar un nuevo nodo s"lo ha* que modi$icar unos archivos en el servidor# <dems,
proporciona un alto nivel de escalabilidad#
(a desventaja de tener clientes o esclavos sin disco es que el tr$ico N)S se incrementa#
+ependiendo de la red instalada esta puede ser una con$iguraci"n poco adecuada para el
cluster#
7#2#4# ,nstalaci"n (ocal ompleta en los lientes
5odo el so$t>are, tanto el sistema operativo como las aplicaciones, son instaladas en los
discos internos de cada nodo cliente# Esta con$iguraci"n reduce a cero el tr$ico N)S para
obtener el sistema operativo o cualquier otra aplicaci"n por parte de los nodos esclavos#
18
18
7#2#7# ,nstalaci"n N)S Estndar
Esta con$iguraci"n es el punto medio de las dos anteriores# El sistema operativo se encuentra
en los discos internos de los nodos esclavos * estos obtienen los directorios hogar de los
usuarios * los sistemas de archivos que contienen las aplicaciones, a travFs de N)S, desde el
nodo maestro#
7#2#9# Sistemas de <rchivos +istribuidos
(os sistemas de archivos son aquellos que son compartidos por todos los nodos, es decir,
cada nodo posee un pedazo del sistema de archivos lo cual incrementa la velocidad en los
accesos a la in$ormaci"n debido a la presencia de ms de un dispositivo $sico para el
manejo de los datos# Sin embargo, esta con$iguraci"n esta en $ase e!perimental * por esta
raz"n no es recomendada#
7#4# Memoria
(a selecci"n de la cantidad de memoria depende de dos $actores primordialmenteH
(os recursos econ"micos con que se cuentan
(os requerimientos de memoria de las aplicaciones que se ejecutarn en el cluster
(a raz"n principal para contar con una capacidad de memoria razonable es evitar que las
aplicaciones necesiten de reas de swap para continuar con su ejecuci"n normal#
,ntercambiar localidades de memoria hacia el rea de swap reduce considerablemente el
rendimiento de los programas# Se debe tomar en cuenta que la con$iguraci"n para un cluster
+is@less no es posible contar con particiones destinadas para memoria virtual debida a la
ausencia de discos locales, lo cual impone una raz"n de peso para instalar memoria R<M
su$iciente#
(a velocidad de la memoria tambiFn es importante# Memoria de accesos lento puede
convertirse en un cuello de botella a la hora de ejecutar aplicaciones con altas e!igencias de
este recurso#
19
19
7#7# Brocesador
(os clusters generalmente son construidos con procesadores <lpha o ,ntel !83# (a
utilizaci"n de otro tipo de procesador es permitido, sin embargo, no se consideran de uso
comGn, *a que se elimina una de las principales caractersticas de %eo>ul$ ?uso de
componentes comunesA, la cual permite reemplazar de $orma $cil * con bajos costos
cualquier componente del sistema#
7#9# Simetric MultiBrocessor ?SMBA
(as mquinas con ms de un procesador son utilizadas comGnmente en clusters %eo>ul$
debido a la gran capacidad de prestaciones que proporcionan# Una de las principales
ventajas en la utilizaci"n de SMB, adems del incremento de poder, es la reducci"n de la
cantidad de tarjetas de red * por supuesto el tr$ico en la red#
Estructura SMB
+ebido a que SMB comparte globalmente la memoria R<M, tiene solamente un espacio de
memoria, lo que simpli$ica tanto el sistema $sico como la programaci"n de aplicaciones#
Este espacio de memoria Gnico permite que un Sistema &perativo con Multicone!i"n
?multithreaded operating s*stemA distribu*a las tareas entre varios procesadores, o permite
que una aplicaci"n obtenga la memoria que necesita para una simulaci"n compleja# (a
memoria globalmente compartida tambiFn vuelve $cil la sincronizaci"n de los datos#
20
7#.# Massivel* Barallel Brocessing ?MBBA
El Brocesamiento masivamente paralelo es otro diseIo de procesamiento paralelo# Bara
evitar los cuellos de botella en el bus de memoria, MBB no utiliza memoria compartida# En
su lugar, distribu*e la memoria R<M entre los procesadores de modo que se semeja a una
red ?cada procesador con su memoria distribuida asociada es similar a un computador dentro
de una red de procesamiento distribuidoA# +ebido a la distribuci"n dispersa de los recursos
R<M, esta arquitectura es tambiFn conocida como dispersamente acoplada ?loosel*
coupledA, o compartiendo nada ?shared nothingA#
Estructura MBB
Bara tener acceso a la memoria $uera de su propia R<M, los procesadores utilizan un
esquema de paso de mensajes anlogo a los paquetes de datos en redes# Este sistema reduce
el tr$ico del bus, debido a que cada secci"n de memoria observa Gnicamente aquellos
accesos que le estn destinados, en lugar de observar todos los accesos, como ocurre en un
sistema SMB# Rnicamente cuando un procesador no dispone de la memoria R<M su$iciente,
utiliza la memoria R<M sobrante de los otros procesadores# Esto permite sistemas MBB de
gran tamaIo con cientos * aGn miles de procesadores# MBB es una tecnologa escalable#
7#3# Red
(a topologa de red recomendada es un %us o barra, debido a la $acilidad para proporcionar
escalabilidad a la hora de agregar nuevos nodos al cluster# Brotocolos como Ethernet, )ast
Ethernet, 2;D2;; Mbps S>itched Ethernet, etc, son tecnologas apropiadas para ser
utilizadas en %eo>ul$#
21
,C# ,mplementaci"n * onstrucci"n
Ma*oritariamente se hablara sobre la construcci"n de la con$iguraci"n de un cluster
eow!l" con clientes diskless
9#2# onsideraciones
/0uF se necesita para tener un eow!l"1 omo se ha mencionado, para un eow!l" se
requieren los nodos como tales, as como una red local de intercone!i"nL un sistema
operativo en los nodos, que en la ma*ora de los casos es (inu!L * un mFtodo para que los
programas aprovechen la naturaleza paralela del eow!l"#
,nteresantemente, en la ma*ora de los casos estos sern los Gnicos elementos necesarios#
+esde el principio, el pro*ecto eow!l" ha buscado integrarse estrechamente con el
desarrollo normal de (inu!, as como inter$erir lo menos posible con una instalaci"n de
(inu! tradicional#
<s, la ma*ora del so"tware requerido para construir un eow!l" se proporciona como una
adici"n a alguna distribuci"n pGblicamente disponible de (inu!# El pro*ecto %eo>ul$ se
en$oca a la distribuci"n Red =at (inu!, si bien sus componentes pueden instalarse en
cualquier distribuci"n# ualquier distribuci"n moderna inclu*e los componentes necesarios
para la con$iguraci"n del equipo como una estaci"n de trabajo en redL esto inclu*e el kernel
de (inu!, el conjunto de utileras * so"tware KNU, * una serie de programas * aplicaciones
como compiladores * herramientas de c"mputo cient$ico#
<quellos elementos que un eow!l" requiere adicionar a la distribuci"n, estn disponibles
como paquetes adicionales * bibliotecas de desarrollo#
abe notar que, como producto del apo*o que el pro*ecto eow!l" ha dado al desarrollo
de (inu!, todas las mejoras a los controladores de red de (inu! realizadas por
los desarrolladores de eow!l" han sido incorporadas a cada nueva versi"n del kernel de
(inu!, de modo que estos controladores no necesitan obtenerse de manera e!terna#
22
9#4# =<R+'<RE
9#4#2# omunicaci"n entre nodos
El uso de la red Ethernet tiene ciertas ventajas * caractersticas interesantes# Una de ellas es
su $acilidad de instalaci"n * bajo costo# Bor otro lado, la popularidad de la tecnologa
Ethernet ha llevado a desarrollos que permiten incrementar el desempeIo segGn crezcan las
necesidades# Un cl!ster puede bene$iciarse con el uso de switches, que segmentan el tr$ico
en el bus Ethernet * reducen la saturaci"n * colisiones en el mismo# S se puede contar con
incrementos de desempeIo inmediatos utilizando )ast Ethernet ?2;; MbpsA * Kigabit
Ethernet ?2 KbpsA#
9#4#4# onsideraciones para equipos sin disco duro
El uso de estaciones diskless ?sin discoA, como se conocen comGnmente, est bastante
di$undido, pues permite un desempeIo aceptable para terminales que normalmente $ungen
como despliegue del trabajo realizado en un servidor multiusuario# (as terminales diskless
requieren un mnimo de trabajo de mantenimiento * con$iguraci"n, * Fstos se realizan
bsicamente en un servidor central, $acilitando estas tareas#
Ma*oritariamente el recurso de interFs en las estaciones es su procesador * memoria, como
elementos de trabajo bsicos del cl!ster# <dicionalmente, no se pretende que los usuarios
tengan acceso a estas estaciones directamente# (a tFcnica de arranque diskless proporciona
ventajas, como son la centralizaci"n de todos los archivos de los nodos en un servidor
central, * cierta economa en los requerimientos de equipo, pues se evita la necesidad de
contar con disco duro en cada uno de ellos#
El uso de esta tFcnica es una e!tensi"n del uso del sistema de archivos por red ?Net>or@
)ile S*stem o N)SA# N)S normalmente se emplea para compartir los directorios de usuarios
en redes de estaciones de trabajo, * en cl!sters suele emplearse para $acilitar la distribuci"n
de los programas a ejecutar#
Esta tFcnica presenta dos desventajasH
2# (a primera es que se incrementa el uso de disco duro en el servidor central#
4# (a segunda es un bajo desempeIo en el acceso a archivos por parte de los nodos#
omo los nodos no cuentan con almacenamiento secundario local, todo intento de
23
acceso a disco se realiza a travFs de la red * si no se tiene un red lo su$icientemente
rpida estos accesos pueden tomar bastante tiempo#
9#7# S&)5'<RE
9#7#2# ,nstalaci"n * arranque del sistema operativo en el servidor
central
El sistema operativo en el servidor central servir como base para la creaci"n de los
directorios o sistemas de archivos para los nodos# Este servidor debe contar con el so"tware
para proporcionar los servicios requeridos para el arranque * operaci"n de los nodos#
9#7#4# ,nstalaci"n * con$iguraci"n de so"tware de inicializaci"n en los nodos ?dis@lessA
El arranque remoto de estaciones sin disco duro, es una tFcnica que se puede emplearse en
los nodos, puede emplearse para diversos sistemas operativos de red, como Novell *
variantes de Uni!# El mFtodo tradicional con redes Uni! involucra 9 etapasH
2# <l arrancar la computadora, se carga un programa conocido como Narrancador de
redP# Este es un programa que tradicionalmente reside en una R&M de arranque que
se encuentra en la tarjeta de red#
4# El arrancador de red obtiene su direcci"n ,B de un servidor, utilizando los protocolos
%&&5B o +=B# on los datos entregados por el servidor el arrancador de
red realiza con$iguraci"n bsica de la tarjeta de red para hacer trans$erencias por
5BD,B#
7# El arrancador de red utiliza el protocolo 5)5B para trans$erir un archivo desde el
servidor, cu*a ubicaci"n normalmente se especi$ica como parte de la con$iguraci"n
recibida por %&&5B o +=B# Este archivo comGnmente es el kernel que debe cargar
la estaci"n para realizar su arranque#
9# Una vez cargado el kernel, termina el trabajo del arrancador de redL el kernel se carga
normalmente * realiza su procedimiento de inicio#
24
omo se puede apreciar, esto involucra con$iguraci"n de tres elementos
bsicosH
el arrancador de red a ejecutar en los nodos
el servidor %&&5B o +=B
* el servidor de 5)5B
Estos dos Gltimos elementos se con$iguran en el servidor#
9#7#4#2 <signaci"n automtica de direcci"n ,B
5anto el protocolo %&&5B ?ootstrap #rotocolA como el +=B ?$ynamic %ost
&on"ig!ration #rotocolA permiten la asignaci"n de in$ormaci"n de con$iguraci"n para
estaciones de trabajo desde un servidor central# En ambos casos el cliente realiza una
transmisi"n 'roadcast con su direcci"n de hardware ?direcci"n M<
9
A# El servidor
%&&5B o +=B toma esta petici"n * regresa al cliente la in$ormaci"n requerida, que
bsicamente consta de la direcci"n ,B que el cliente deber utilizar, * algunos otros datos# +e
particular importancia es un nombre de archivo que a*udar al cliente a realizar su arranque#
+=B es un protocolo ms so$isticado * cu*a con$iguraci"n es ms clara que la de %&&5B#
+=B proporciona la posibilidad de enviar ms in$ormaci"n al cliente que %&&5B, *
cuenta con algunas caractersticas como asignaci"n dinmica de direcciones#
El archivo de con$iguraci"n es relativamente sencillo, sin embargo es un tanto e!tenso
*a que se requiere una secci"n host para cada nodo del cl!ster# El archivo completo
se encuentra en el ane!o ?<A#
En general el archivo consta de varias secciones host que tienen el $ormato mostrado en el
siguiente ejemploH
host nodo2 T
$i!edUaddress 2:4#238#2;#38L
hard>are ethernet ;;H3;H;8H;%H.<H:EL
$ilename QDt$tpbootDvmlinuzUnbiU4#4QL
ne!tUserver 2:4#238#2;#2L
option hostUname Qnodo2QL
V
9 (edia )ccess &ontrol, control de acceso al medio# 5odo dispositivo de red debe contar con una direcci"n M<
Gnica para identi$icaci"n#
25
Se puede apreciar las mas importantes que en cada secci"n host se asignanH
(a direcci"n M< ?indicada por el parmetro hardware ethernetA#
(a direcci"n ,B de cada nodo ?"i*edaddressA# Wstas se asignan de manera progresiva
* cuidando que sean Gnicas para cada host#
El nombre ?hostnameA#
El nombre del archivo a cargar para el arranque ?"ilenameA, que en este caso
especi$ica la ruta, dentro del servidor 5)5B, de un kernel (inu! adecuado para el
arranque de los nodos#
S el servidor que entregar este archivo a los clientes ?ne*tser+erA# (a raz"n de este
Gltimo parmetro es que en ocasiones se puede tener un servidor 5)5B que sea
distinto del servidor +=B#
9#7#4#4# Servidor de archivos de arranque 5)5B
El protocolo 5)5B ?,ri+ial -ile ,rans"er #rotocolA es un protocolo mu* sencillo, basado en
U+B, que permite bajar archivos de un servidor# Su principal utilidad es, precisamente, para
proporcionar archivos de arranque a equipos que no cuentan con almacenamiento local#
5)5B no cuenta con ninguna clase de control de acceso ?contraseIas o nombres de usuarioA#
En el caso de usar Red=at (inu!, este proporciona un servidor de t$tp, contenido en el
paquete t"tpser+er# Este paquete se encuentra instalado con la con$iguraci"n de paquetes
descrita anteriormente, sin embargo se encuentra normalmente deshabilitado# Bara
habilitarlo se debe agregar la siguiente lnea en el archivo de con$iguraci"n DetcDinetd#con$
t$tp dgram udp >ait root DusrDsbinDtcpd in#t$tpd Dt$tpboot
Esta es una lnea de con$iguraci"n tradicional del servidor inetd# En este caso se hace notar
que el Gltimo parmetro ?.t"tp'ootA indica el directorio que contiene los archivos a compartir
por medio de 5)5B#
26
9#7#4#7# argador de arranque
El programa encargado de iniciar la inter$az de red, obtener los datos de con$iguraci"n
bsicos, * cargar por medio de 5)5B el archivo especi$icado en esta con$iguraci"n, es el
cargador de arranque#
Bara realizar acabo esto e!isten dos paquetes que son Netboot *
Etherboot#
=ist"ricamente Netboot $ue el primero en aparecer# Netboot utiliza los manejadores de
paquetes ?packet dri+ersA que se inclu*en con casi cualquier tarjeta de red en el mercado,
teniendo de esta manera gran compatibilidad con una e!tensa gama de tarjetas#
Etherboot es un desarrollo posterior, basado hasta cierto punto en Netboot, pero que ha sido
reescrito proporcionando una base de c"digo ms limpia * compacta que la de Netboot#
Etherboot utiliza manejadores internos * genera una imagen R&M para cada tipo de tarjeta
de red soportada# El uso de manejadores internos permite que la imagen tenga un tamaIo
mu* reducido que no da problemas con ninguna tarjeta de red soportada# <dems, *a que los
manejadores $ueron desarrollados e!plcitamente para Etherboot, cuentan con
autocon$iguraci"n para tarjetas tipo ,S<, lo que permite utilizar una sola imagen de arranque
para cada tipo de tarjetas#
El uso de Etherboot no se recomienda si se tienen tarjetas de red que no estFn soportadas, *a
que el soporte de Netboot es ms e!tenso# ara utilizarlo se debe obtener el c"digo $uente de
la pgina h tt p / .. et he r 'o o t0s o ! r ce "o r g e0 n e t#
9#7#4#9 reaci"n del @ernel para los nodos
El archivo que el servidor 5)5B entregar a los nodos es un kernel de (inu! $uncional# Wste
asume el control del sistema * realiza el arranque normal# Sa que la con$iguraci"n en las
estaciones es bastante particular, el kernel debe contar internamente con las $unciones
necesarias para inicializar el dispositivo de red, obtener su con$iguraci"n de un servidor
remoto, * montar su sistema de archivos raz a travFs de N)S# Una vez realizadas estas
$unciones, el kernel invoca al proceso init ?$uncionamiento tradicional en un sistema Uni!A *
el arranque prosigue normalmente#
27
27
(a naturaleza modular del kernel de (inu! permite una gran e$iciencia * versatilidad en el
manejo de los m"dulos que controlan a los dispositivos e implementan ciertas caractersticas
a nivel @ernel# Esto es prctico si se cuenta con almacenamiento local, pero en el caso de un
nodo sin dichas $acilidades, se requiere que el @ernel contenga internamente todas las
$unciones necesarias para su arranque, al menos hasta el montaje del sistema de archivos
raz# En el mbito de (inu!, se dice que los m"dulos necesarios deben compilarse
monolticamente dentro del kernel# En este caso necesitamos compilar monolticamente las
siguientes opciones en el kernelH
-ernel level autocon$iguration# Bermite al kernel obtener su in$ormaci"n de
con$iguraci"n a travFs de algGn protocolo como +=B o %&&5B#
+=B support
%&&5B support
N)S )iles*stem Support# Sa que todos los sistemas de archivos montados por los
nodos residirn en un servidor N)S, esta opci"n es indispensable para la operaci"n
de los nodos#
Root )ile S*stem on N)S# Bor medio de esta opci"n, el @ernel monta un sistema de
archivos en un servidor N)S como su sistema raz#
Soporte para las tarjetas de red que se vallan a utilizar#
9#7#7# &rganizaci"n de sistemas de archivos para N)S
ada nodo requiere un sistema de archivos raz que utilizar para el arranque# Estos
directorios se e!portarn a travFs de N)S * deben contener los archivos necesarios para el
arranque del sistema#
(a ma*ora de las distribuciones de (inu! se adhieren a un estndar conocido como )=S
?-ilesystem %ierarchy Standard, estndar de jerarqua del sistema de archivosA# El objetivo
de contar con este estndar es el homologar la organizaci"n de los sistemas de archivos
entre las distribuciones de (inu!, para mejorar la interoperabilidad entre las
aplicaciones, herramientas de administraci"n de sistemas, herramientas de desarrollo *
scripts, as como
28
contar con una ma*or uni$ormidad de uso * documentaci"n para los sistemas que se
adhieren el estndar#
)=S intenta mantener la cantidad de archivos en el directorio raz al mnimo ?salvo para los
directorios Dusr, Dopt * Dvar * DhomeA obedeciendo a algunos criterios bsicos# Uno de ellos
es particularmente importante para estaciones disklessH el sistema de archivos raz contiene
muchos archivos de con$iguraci"n espec$icos a cada sistema, como puede ser con$iguraci"n
de red o nombre del host# Esto implica que el sistema de archivos raz no siempre se puede
compartir entre sistemas en red# El mantener el sistema de archivos raz lo ms compacto
posible minimiza el espacio desperdiciado por archivos no compartibles# 5ambiFn permite
minimizar el tamaIo del sistema de archivos inicial, sea local o remoto#
(os directorios de nivel superior, como lo especi$ica )=S, son los siguientesH
bin binarios de comandos esenciales ?uso pGblicoA
boot archivos estticos de arranque del sistema
dev archivos de dispositivos
etc con$iguraci"n espec$ica del sistema
home directorios de usuarios
lib bibliotecas compartidas esenciales
mnt punto de montaje para otros sistemas de archivos
opt so"tware de aplicaci"n adicional
root directorio del superusuario
sbin binarios esenciales del sistema
tmp archivos temporales
usr jerarqua secundaria
var datos variables
Bara los sistemas de archivos de los nodos, se omitirn los directorios Dusr * Dhome, *a
que estos sern compartidos entre todos los nodos * el servidor central#
29
< $in de generar el sistema de archivos para cada nodo, bajo el directorio Dt$tpboot se
crean directorios con el hostname correspondiente a cada nodo, por ejemploH
Dt$tpbootDnodo2# %ajo cada uno de estos se debe crear la jerarqua raz para cada nodo# Bara
esto simplemente se copian los subdirectorios necesarios del servidor# (os directorios a
copiar sonH
bin
dev
etc
lib
proc
root
sbin
tmp
var
,nicialmente se realiza Gnicamente una copia del directorio# Bosteriormente la con$iguraci"n
por nodo se realiza en esta copia, * $inalmente se crean tantas copias del primer directorio
como nodos se tengan#
,nicialmente se realiza Gnicamente una copia del directorio# Bosteriormente la con$iguraci"n
por nodo se realiza en esta copia, * $inalmente se crean tantas copias del primer directorio
como nodos se tengan#
No se requiere copiar el directorio Dboot, que contiene las imgenes ejecutables del kernel
para el server, puesto que los nodos *a han cargado su kernel a travFs de 5)5B#
SegGn la especi$icaci"n )=S, el directorio Dusr debe contener Gnicamente in$ormaci"n
compartible * de s"lo lectura# Esto nos garantiza que al compartirlo entre todos los nodos, no
se tendrn problemas de inconsistencia o sincronizaci"n# El directorio Dhome se comparte
bajo el mismo mecanismo# +e esta manera todas las entradas * administraci"n de usuarios
se realizan en el servidor central, los cambios * archivos de los usuarios se comparten entre
todos los nodos#
30
9#7#9# Servidor N)S
El sistema de archivos en red ?N)SA permite acceder a archivos ubicados en sistemas
remotos tal como si se encontraran localmente# En este caso es de gran importancia *a que a
travFs de N)S se proporcionarn los sistemas de archivos raz * un rea compartida para los
nodos del cl!ster# El protocolo N)S $ue desarrollado por Sun Micros*stems, aunque est
tambiFn publicado en el R) 2;:9, por lo tanto su uso est mu* di$undido como uno de los
principales mecanismos para compartir archivos en redes de rea local#
(inu! cuenta con implementaciones N)S tanto para clientes como para servidores# omo se
e!plic", el soporte para cliente N)S se compila directamente en el kernel# <s el @ernel
puede montar directamente sistemas de archivos que residen en otros servidores#
El so"tware que permite a (inu! $ungir como servidor N)S est contenido en el paquete n$s
utils# Wste se inclu*e en la distribuci"n Red =at, sin embargo no se instala por de$ault por lo
que se debe agregar posteriormente# 5ambien se debe habilitar el servicio N)S, de modo que
al iniciar el sistema arranque el NdemonioP N)S#
El demonio N)S requiere un archivo de con$iguraci"n que le indique quF sistemas de
archivos * directorios debe e!portar, o hacer disponibles, as como varios parmetros que
controlan el acceso que los clientes tendrn a estos sistemas de archivos#
El archivo de con$iguraci"n que se debe crear es DetcDe!ports# Este archivo queda como
sigueH
Dt$tpboot 2:4#238#2;#;D4..#4..#4..#;?r>,noXrootXsquashA
Dhome 2:4#238#2;#;D4..#4..#4..#;?r>,noXrootXsquashA
Dusr 2:4#238#2;#;D4..#4..#4..#;?r>,noXrootXsquashA
ada lnea indica el directorio a e!portar, seguido de opciones que controlan el acceso al
recurso# En este caso estamos especi$icando que los directorios solo podrn ser e!portados a
hosts con direcci"n ,B dentro de la subred 2:4#238#2;#; * mscara 4..#4..#4..#; ?lo
cual corresponde precisamente a la subred que estamos empleando para los nodos del
cl!sterA#
31
31
(os parmetros entre parFntesis indican los privilegios con que se e!porta el recurso#
En este caso especi$icamos r> ?read.writeA, lo cual indica que se permiten peticiones de
lectura * escritura en el sistema e!portado# omGnmente se especi$ica la opci"n ro ?read
onlyA, pero en este caso se requiere acceso total porque los nodos requerirn la capacidad de
escribir en sus sistemas de archivos remotos#
El parmetro noXrootXsquash desactiva el Naplastamiento de root1, que es el
comportamiento por omisi"n al e!portar por N)S# Normalmente, para evitar que un sistema
remoto monte un sistema de archivos * el superusuario de ese sistema tenga acceso total a
nuestro sistema, el N)S mapea las peticiones realizadas por el usuario con !id ; a un
usuario an"nimo con privilegios mnimos# En este caso se desea que los accesos con !id ;
no tengan un mapeo a un !id
5
di$erente, pues en los nodos s se requieren accesos
privilegiados# Esto no representa un riesgo de seguridad porque en este caso los accesos
privilegiados estn restringidos a los nodos, sobre los cuales se tiene bastante control
administrativo#
9#7#.# on$iguraci"n por nodo
9#7#.#2#Montaje de los sistemas de archivos remotos
No es necesario tomar pasos adicionales para que cada nodo monte su sistema de
archivos raz# omo parte del arranque, el kernel montar el directorio
N)S
2:4#238#2;#2HDt$tpbootDhostname como su directorio raz#
El archivo que indica los sistemas de archivos a montar una vez iniciado el sistema es
el
DetcD$stab# Sa que la con$iguraci"n ser la misma para todos los nodos, es conveniente
realizar el cambio primero en el directorio nodo2 que se cre" para su posterior
duplicaci"n#
. En sistemas UN,E, cada usuario es identi$icado por un valor numFrico conocido como !id o 2ser I$#
32
Bara que los nodos monten los sistemas de archivos compartidos ?Dhome * DusrA, el archivo
DetcD$stab debe quedar como sigueH
none Dproc proc de$aults ; ;
none DdevDpts devpts gidY.,modeY34; ; ;
2:4#238#2;#2HDusr Dusr n$s de$aults ; ;
2:4#238#2;#2HDhome Dhome n$s de$aults ; ;
ada lnea debe tener 3 elementos separados por espacios#
El primer elemento es el nombre o identi$icador del dispositivo a montar# El segundo
elemento es el directorio sobre el cual se debe montar# El tercero indica el tipo de sistema de
archivos que se encuentra en el dispositivo# El cuarto indica parmetros de montaje para el
dispositivo# (os dos Gltimos elementos indican el orden en que se debe respaldar el sistema
de archivos utilizando el comando dump#
En este caso las dos primeras lneas estn con$iguradas de antemano# (a primera indica el
montaje del sistema de archivos proc, que contiene in$ormaci"n de tiempo de ejecuci"n del
sistema * se genera dinmicamente# (a segunda indica el montaje del sistema de archivos
devpts, que genera dinmicamente las terminales virtuales para acceso remoto al sistema#
(as dos lneas siguientes indican el montaje de los sistemas Dusr * Dhome# Wstos se montan a
travFs de N)S ?n"tese el tercer parmetro especi$icando el tipo de sistema de archivosA# (a
sinta!is para denotar el dispositivo a montar es servidorHdirectorio# Estas dos lneas montan
los directorios Dusr * Dhome del servidor en la misma ubicaci"n en cada nodo#
9#7#.#4# on$iguraci"n cliente N,S
3
< $in de que un nodo cliente pueda compartir la in$ormaci"n de un servidor N,S, se requiere
ejecutar un programa que lo enlace al dominio N,S correspondiente, de modo que, cuando
3 Net>or@ ,n$ormation Service ?conocido por su acr"nimo N,S, que en espaIol signi$ica Sistema de In"ormaci3n
de 4edA, es el nombre de un protocolo de servicio de directorios clienteservidor desarrollado por Sun
Micros*stems para el envo de datos de con$iguraci"n en sistemas distribuidos tales como nombres de usuarios *
hosts entre computadoras sobre una red#
33
algGn programa solicite in$ormaci"n de las bases de datos compartidas, Fsta pueda obtenerse
del servidor N,S, * no de los archivos locales# +e esta manera se asegura que e!iste
consistencia de in$ormaci"n entre los clientes del dominio N,S, que como se mencionaba
anteriormente, es necesaria, en particular para asegurar que la in$ormaci"n de los permisos
sobre los archivos sea la misma para todos los nodos#
El cliente N,S requiere $ijar el nombre de dominio N,S al que va a pertenecer, de manera
similar a la del servidor N,S, por medio del programa domainnameH
Z domainname +&M,N,&
+e esta manera se indica al sistema que pertenece al dominio tornado# Bara no tener que
realizar este procedimiento cada vez que se inicia el sistema se puede aIadir la siguiente
lnea en el archivo DetcDs*scon$igDnet>or@H
N,S+&M<,NYQ+&M,N,&Q
Se observa que este procedimiento es igual tanto en el cliente como en el servidor#
Una vez que se ha $ijado el valor de la variable N,S+&M<,N, se requiere indicar el
servidor que atender las peticiones N,S# Esto se con$igura en el archivo DetcD*p#con$# Se
agrega la siguiente lnea al archivoH
*pserver 2:4#238#2;#2
&bsFrvese que 2:4#238#2;#2 es la direcci"n ,B del servidor N,S#
)inalmente el cliente N,S debe ejecutar el programa que ejecuta las peticiones al servidor
N,S, llamado *pbind# +e nuevo se observa el pre$ijo *p, en este caso el nombre de la
utilera indica que se NamarraP o NuneP ?'indA el cliente al dominio N,S previamente
especi$icado#
34
9#7#3# <rchivo DetcDhosts
El archivo DetcDhosts contiene una lista de mapeos de nombres a direcciones ,B# Esta
in$ormaci"n es necesaria para la correcta operaci"n del sistema# <dicionalmente, este
archivo es uno de los archivos compartidos a travFs de N,S, de modo que Gnicamente se
necesita modi$icar en el servidor central para que todos los nodos tengan la misma
in$ormaci"n#
El archivo contiene una lista de direcciones ,B seguidas de nombres simb"licos# El contenido
del archivo puede ser como sigueH
246#;#;#2 localhost
2:4#238#2;#2 +&M,N,&
Znodos
2:4#238#2;#38 nodo2
2:4#238#2;#3: nodo4
2:4#238#2;#6; nodo7
2:4#238#2;#62 nodo9
Una vez agregada in$ormaci"n al archivo, es importante recrear los mapas de N,S, como se
menciona en la secci"n anterior, ejecutando el comando ma@e en el directorio DvarD*p# +e
otro modo los nodos no tendrn acceso a esta in$ormaci"n * el sistema no $uncionar
adecuadamente#
35
&N(US,&N
%sicamente este in$orme estuvo destinado a conocer los elementos necesarios para la
construcci"n de un cluster %eo>ul$, no tanto en su aplicaci"n practica pero si
ma*oritariamente te"rica debido a los pocos recursos con los que se contaban para el
desarrollo del tema#
<dems se dieron a conocer algunas de las con$iguraciones necesarias para instalar nodos de
tipo dis@less que son los mas usados en aplicaciones que trabajan con procesamiento
paralelo#
36
RE)EREN,<S
h t tp HDD e s #> i@ ipe di a #o r g D> i@ iD lu s t e r X?i n$orm7[<2ticaAZomponentesXdeXunXluster
h t tp HDD > > > #ce c a lc# u la #v e D do c u m e n ta ci o n D tu to r ia le s D be o > u l$ D n o de 2 #h tm l
h t tp HDD p u bl ie s p e #e s pe #e d u #e c D a r tic u lo s D s i s te m a s D a r q u i tect u r a Da r q u it ect u r a #h tm
h t tp HDD > > > #to m e c h a n go s u b a n a n a #co m D te s is D e s cr ito U2 Us pl itD n o de 2 #h tm l
h t tp HDD ta li@ a #e ii #u s #e s D \ r o s a D cl u s te r in g# pd$
h t tp HDD > > > #bi o in ge n i e r ia #e d u #a r D g r u p o s D ci be r n e tic a D m il o n e D p u b s D cl u s te r X R + 5 4 ;;4 d r a $
t#pd$
37
37
<NEE&
<# EMEMB(& +E &N),KUR<,&N +E( +EM&N,& +=B
serverUidenti$ier tornadoL
Z&pciones comunes a todas las subredes soportadas
option domainUname Qunam#m!QL
option domainUnameUservers 274#498#2;#4L
Zasignacion dinamica## notese que en este caso solo
Zespeci$icamos las subredes en las que se encuentra el
Zservidor, puesto que no vamos a realizar asignaci"n
Zdinmica ha* dos declaraciones de subred
Zcorrespondientes a cada una de las inter$ases que
Ztenemos#
sharedUnet>or@ +&M,N,&T
subnet 2:4#238#2;#; netmas@ 4..#4..#4..#; T
option broadcastUaddress 2:4#238#2;#4..L
V
V
subnet 2:4#238#2#; netmas@ 4..#4..#4..#; T V
Z < partir de aqu especi$icamos la con$iguraci"n por
Z host# cada bloque especi$ica un host, notar la
Z direcci"n ,B $ija, el hostname que se asignar a
Z cada nodo, * la direccion hard>are ethernet que
Z especi$ica a que direccion M< se asignarn
Z estos datos#
host nodo2 T
$i!edUaddress 2:4#238#2;#38L
hard>are ethernet ;;H3;H;8H;%H.<H:EL
$ilename QDt$tpbootDvmlinuzUnbiU4#4QL
ne!tUserver 2:4#238#2;#2L
option hostUname Qnodo2QL
V
host nodo4 T
$i!edUaddress 2:4#238#2;#3:L
hard>are ethernet ;;H8;H<+H7;H9:H+9L
$ilename QDt$tpbootDvmlinuzUnbiU4#4QL
ne!tUserver 2:4#238#2;#2L
option hostUname Qnodo4QL
V

También podría gustarte