Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ClusterGRIDProject
Grupo7
JessAlejandroNogueraBalln
CamiloAntonioAlbarracnCanon
ErinStevenRincnPrieto
UniversidadNacionaldeColombia
FacultaddeIngeniera,DepartamentoSistemasyComputacin
ComputacinParalelayDistribuida
Bogot,Colombia2015
Contenido
Introduccin
Desarrollo
ConfiguracionesSwitchesyRouters
Conclusiones
CLUSTER
GRID
Inconvenientesysoluciones
3
3
5
7
8
62
66
Introduccin
El Grid es un sistema de computacin distribuido, que permite compartir recursos, los
cuales no necesariamente se encuentran centrados geogrficamente, para resolver
problemas de gran escala. Para el desarrollo del proyecto, losrecursoscompartidosfueron
ordenadoresloscualesfueronvirtualizadossobreequiposporttilesdegranpotencia.
Desarrollo
Para eldesarrollodelproyectoGrid,secontinuconellaboratoriodeClusterrealizadoenla
primera parte del curso Computacin Paralela y Distribuida, pero sta vez se llev a gran
escala, dividiendo dos mesas del laboratorio en dos segmentos de red (Clusters)
geogrficamente separados (
Figura 1
) de forma que cada par de los 10 grupos se
conectabaentresgraciasalusodedosroutersydosswitches.
Figura1.Direccionamientoyconfiguracindelared.
192.168.0.97/28
(first)(gateway)
192.168.0.110/28
(last)
Broadcast
192.168.0.111
PCESXi:
192.168.0.104(Nodo3)
Figura2.Instalacingrupo7.
Figura3.Instalacingrupo4.
Figura4.Instalacinysimulacindeconeccion
delaredconelsoftwarePacketTracer.
Las configuraciones (scripts) de los equipos de red que permitieron el desarrollo del
proyectoseencuentranacontinuacin.
SwitchSW
enable
configt
interfacefastEthernet0/1
switchportaccessvlan2
interfacefastEthernet0/2
switchportaccessvlan2
interfacefastEthernet0/3
switchportaccessvlan3
interfacefastEthernet0/4
switchportaccessvlan3
interfacefastEthernet0/5
switchportaccessvlan4
interfacefastEthernet0/6
switchportaccessvlan4
interfacefastEthernet0/7
switchportaccessvlan5
interfacefastEthernet0/8
switchportaccessvlan5
interfacefastEthernet0/9
switchportaccessvlan6
interfacefastEthernet0/10
switchportaccessvlan6
interfacefastEthernet0/11
switchportaccessvlan13
interfacefastEthernet0/12
switchportaccessvlan13
interfacefastEthernet0/23
switchportmodetrunk
interfacefastEthernet0/24
switchportmodetrunk
end
wr
SwitchNE
enable
configt
interfacefastEthernet0/1
switchportaccessvlan7
interfacefastEthernet0/2
switchportaccessvlan7
interfacefastEthernet0/3
switchportaccessvlan8
interfacefastEthernet0/4
switchportaccessvlan8
interfacefastEthernet0/5
switchportaccessvlan9
interfacefastEthernet0/6
switchportaccessvlan9
interfacefastEthernet0/7
switchportaccessvlan10
interfacefastEthernet0/8
switchportaccessvlan10
interfacefastEthernet0/9
switchportaccessvlan11
interfacefastEthernet0/10
switchportaccessvlan11
interfacefastEthernet0/11
switchportaccessvlan12
interfacefastEthernet0/24
switchportmodetrunk
end
wr
RouterSW
RouterNE
enable
configt
hostnameRT_SW
linevty05
passwordcisco
login
intf0/0.2
encapsulationdot1q2
ipaddress192.168.0.1
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.3
encapsulationdot1q3
ipaddress192.168.0.17
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.4
encapsulationdot1q4
ipaddress192.168.0.33
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.5
encapsulationdot1q5
ipaddress192.168.0.62
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.6
encapsulationdot1q6
ipaddress192.168.0.65
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.7
encapsulationdot1q13
ipaddress192.168.0.177
255.255.255.240
iphelperaddress192.168.0.2
intf0/0
noshutdown
enable
configt
hostnameRT_NE
linevty05
passwordcisco
login
intf0/0.11
encapsulationdot1q11
ipaddress192.168.0.94
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.7
encapsulationdot1q7
ipaddress192.168.0.97
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.8
encapsulationdot1q8
ipaddress192.168.0.113
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.9
encapsulationdot1q9
ipaddress192.168.0.129
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.10
encapsulationdot1q10
ipaddress192.168.0.145
255.255.255.240
iphelperaddress192.168.0.2
intf0/0.12
encapsulationdot1q12
ipaddress192.168.0.161
255.255.255.240
iphelperaddress192.168.0.2
intf0/0
noshutdown
ints0/0/0
encapsulationhdlc
ipaddress200.200.200.1
255.255.255.252
noshutdown
routerospf10
network192.168.0.00.0.0.15
network192.168.0.160.0.0.15
network192.168.0.320.0.0.15
network192.168.0.480.0.0.15
network192.168.0.640.0.0.15
network192.168.0.1760.0.0.15
network200.200.200.00.0.0.3
end
wr
ints0/0/0
encapsulationhdlc
ipaddress200.200.200.2
255.255.255.252
noshutdown
routerospf10
network192.168.0.800.0.0.15area0
network192.168.0.960.0.0.15area0
network192.168.0.1120.0.0.15area
0
network192.168.0.1280.0.0.15area
0
network192.168.0.1440.0.0.15area
0
network192.168.0.1600.0.0.15area
0
network192.168.0.1600.0.0.15area
0
network200.200.200.00.0.0.3area0
end
wr
Debido a que el primer laboratorio cada grupo hizo un montaje de un cluster, entonces,
cada grupo ya conoca el montaje bsico para la prueba de grid. Para nuestro laboratorio,
nuestro grupo (7) aport una mquina ESXi (nodo 2) al grupo 3, en el cual se hallaba el
nodo principal (Nodo 1) y un nodo adicional (Nodo 3). A todoslosnodos selesconfigurel
SistemaOperativoUbuntuensuversin14.0,servicioSSH.
Conclusiones
GraciasalusodeMPIesposiblehacerdistribucindeltrabajodeunsoftwareaprovechandolos
recursos de varias mquinas, hay que aclarar que no importa la versin de MPICH que se
utilice, sta debe ser configurada con los nombres de cada versin, sta fue una leccin
aprendida,yaquegracias aqueusamoscomoguauntutorialdeMPICH 2peroinstalamosla
versin ms reciente (MPICH 3), lo cual era de sumo cuidado, debido a que los nombresde
direccionamiento no podan ser los mismos, sino de acuerdo a laversin.Ademses posible
crearprogramasqueaprovechenlosbeneficiosqueMPIysusprimitivasofrecen.
CLUSTER
Elprocesodeinstalacinenel
PC(Server):
PrimeroseinstalelWindowsServerluegodehaberinstaladovmWareenelequipo
InstalacindeActiveDirectoryyServidorDNS:
LuegoseinstalelESXi
Elprocesodeinstalacinenel
PC(vCenter):
PrimeroseinstalelWindowsServerluegodehaberinstaladovmWareenelequipo
Enprocesodeinstalacinde
vSphereClient
enel
PC(Server)
,ascomoeldelacreacinde
los3NodosenUbuntu,instalacindeMPIySSHypruebadeaplicacin
fue
:
Para dar solucin a ste problema fue necesario realizar una interconexin entre los
computadores de nuestro grupo, de forma que estuvieran aislados del trfico de la red de la
sala.
Ahora,veremoslaaplicacinenC(Sumadenmerosaleatorios)funcionandoconlos
respectivosrecursosgastadosencadanodo:
Nodosenreposo:
Aplicacinejecutando:
Nodogastandorecursos:
GRID
Unavezseharealizadoelmontajeporpartedecadagrupodesupartedelcluster,
podemosobservarqueseencuentranmontadoslos3nodosyelClusterD(queeselque
perteneceanuestrogrupo7yelgrupo4)
Unavezconectados,hacemoslaverificacindeladistribucindelosprocesosdelas
mquinas,conunscriptquerealizalacuentadelacantidaddenmerosprimos(Pi)desde
0hastaelnmeroN.
Ahoraverificamoselrendimientodelasmquinas:
Comoobservamoslacargaesdistribuidaatravsdelosnodos,aunquestosse
encuentrenseparadosgeogrficamente.
Inconvenientesysoluciones
Algunosinconvenientesysussolucionesencontradosdurantelarealizacindelos
laboratorios,fueron:
Problema:
Demasiadotrficosobrelared,loquehacequeelswitchdellaboratorio
dedebajaalgunasdireccionesip.
Solucin:
Parasolucionarsto,hayqueaislarlos
equipos,paraelloseconectaronentreellospormediodeuncabledered.
Problema:
VersionynombresdeMPICH.
Solucin:
Tenercuidadoconlos
nombresdeMPICHysuversin,paranuestrocasofunecesarioinstanciarlas
variablesparadelsistemacorrectamenteconelnombredeMPICH3.
Problema:
Erroresdeconeccion,reconocimientodelosnodosydistribucinde
cargaatravsdelosmismos.
Solucin:
Aunquesuenegracioso,lasolucinpara
steproblemaencontradojustoantesdelapresentacindellaboratorioanteel
profesor,fuesimplementereiniciandoelservidordelVSPHERE.