Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cluster
El trmino cluster se aplica a los conjuntos o conglomerados de computadoras construidos mediante la utilizacin de componentes de hardware comunes y que se comportan como si fuesen una nica computadora. Hoy en da desempean un papel importante en la solucin de problemas de las ciencias, las ingenieras y del comercio moderno. La tecnologa de clusters ha evolucionado en apoyo de actividades que van desde aplicaciones de supercmputo y software de misiones crticas, servidores web y comercio electrnico, hasta bases de datos de alto rendimiento, entre otros usos. El cmputo con clusters surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores econmicos de alto rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cmputo distribuido de alto rendimiento, as como la creciente necesidad de potencia computacional para aplicaciones que la requieran. Simplemente, un cluster es un grupo de mltiples ordenadores unidos mediante una red de alta velocidad, de tal forma que el conjunto es visto como un nico ordenador, ms potente que los comunes de escritorio. Los clusters son usualmente empleados para mejorar el rendimiento y/o la disponibilidad por encima de la que es provista por un solo computador tpicamente siendo ms econmico que computadores individuales de rapidez y disponibilidad comparables. De un cluster se espera que presente combinaciones de los siguientes servicios: 1. Alto rendimiento 2. Alta disponibilidad 3. Balanceo de carga 4. Escalabilidad La construccin de los ordenadores del cluster es ms fcil y econmica debido a su flexibilidad: pueden tener todos la misma configuracin de hardware y sistema operativo (cluster homogneo), diferente rendimiento pero con arquitecturas y sistemas operativos similares (cluster semi-homogneo), o tener diferente hardware y sistema operativo (cluster heterogneo), lo que hace ms fcil y econmica su construccin. Para que un cluster funcione como tal, no basta solo con conectar entre s los ordenadores, sino que es necesario proveer un sistema de manejo del cluster, el cual se encargue de interactuar con el usuario y los procesos que corren en l para optimizar el funcionamiento.
Historia
El origen del trmino y del uso de este tipo de tecnologa es desconocido pero se puede considerar que comenz a finales de los aos 50 y principios de los aos 60. La base formal de la ingeniera informtica de la categora como un medio de hacer trabajos paralelos de cualquier tipo fue posiblemente inventado por Gene Amdahl de IBM, que en 1967 public lo que ha llegado Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011
Pgina 1
Pgina 2
Pgina 3
Componentes de un Cluster
En general, un cluster necesita de varios componentes de software y hardware para poder funcionar. A saber: Nodos Almacenamiento Sistemas Operativos Conexiones de Red Middleware Protocolos de Comunicacin y servicios Aplicaciones Ambientes de Programacin Paralela
Nodos
Pueden ser simples ordenadores, sistemas multi-procesador o estaciones de trabajo (workstations). En informtica, de forma muy general, un nodo es un punto de interseccin o unin de varios elementos que confluyen en el mismo lugar. Ahora bien, dentro de la informtica la palabra nodo puede referirse a conceptos diferentes segn el mbito en el que nos movamos: En redes de computadoras cada una de las mquinas es un nodo, y si la red es Internet, cada servidor constituye tambin un nodo.
Pgina 4
Almacenamiento
El almacenamiento puede consistir en una NAS, una SAN, o almacenamiento interno en el servidor. El protocolo ms comnmente utilizado es NFS (Network File System), sistema de ficheros compartido entre servidor y los nodos. Sin embargo existen sistemas de ficheros especficos para clusters como Lustre (CFS) y PVFS2. Tecnologas en el soporte del almacenamiento en discos duros: IDE o ATA: velocidades de 33, 66, 100, 133 y 166 MB/s SATA: velocidades de 150, 300 y 600 MB/s SCSI: velocidades de 160, 320, 640 MB/s. Proporciona altos rendimientos. SAS: ana SATA-II y SCSI. Velocidades de 300 y 600 MB/s Las unidades de cinta (DLT) son utilizadas para copias de seguridad por su bajo coste. NAS (Network Attached Storage) es un dispositivo especfico dedicado al almacenamiento a travs de red (normalmente TCP/IP) que hace uso de un sistema operativo optimizado para dar acceso a travs de protocolos CIFS, NFS, FTP o TFTP. Por su parte, DAS (Direct Attached Storage) consiste en conectar unidades externas de almacenamiento SCSI o a una SAN (Storage Area Network) a travs de un canal de fibra. Estas conexiones son dedicadas. Mientras NAS permite compartir el almacenamiento, utilizar la red, y tiene una gestin ms sencilla, DAS proporciona mayor rendimiento y mayor fiabilidad al no compartir el recurso.
Sistema Operativo
Un sistema operativo debe ser multiproceso y multiusuario. Otras caractersticas deseables son la facilidad de uso y acceso. Un sistema operativo es un programa o conjunto de programas de computadora destinado a permitir una gestin eficaz de sus recursos. Comienza a trabajar cuando se enciende el Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011
Pgina 5
Ejemplos
GNU/Linux ABC GNU/Linux2 OpenMosix Rocks3 Kerrighed Cndor Sun Grid Engine Unix Solaris HP-UX Aix Windows NT 2000 Server 2003 Server 2008 Server Mac OS X Xgrid Solaris FreeBSD
Conexiones de Red
Los nodos de un cluster pueden conectarse mediante una simple red Ethernet con placas comunes (adaptadores de red o NICs), o utilizarse tecnologas especiales de alta velocidad como Fast Ethernet, Gigabit Ethernet, Myrinet, InfiniBand, SCI, etc. Ethernet Son las redes ms utilizadas en la actualidad, debido a su relativo bajo coste. No obstante, su tecnologa limita el tamao de paquete, realizan excesivas comprobaciones de error y sus protocolos no son eficientes, y sus velocidades de transmisin pueden limitar el rendimiento de los clusters. Para aplicaciones con paralelismo de grano grueso puede suponer una solucin acertada. La opcin ms utilizada en la actualidad es Gigabit Ethernet (1 Gbit/s), siendo emergente la solucin 10 Gigabit Ethernet (10 Gbit/s). La latencia de estas tecnologas est en torno a los 30-100 s, dependiendo del protocolo de comunicacin empleado. En todo caso, es la red de administracin por excelencia, as que aunque no sea la solucin de red de altas prestaciones para las comunicaciones, es la red dedicada a las tareas administrativas.
Pgina 6
Middleware
El middleware es un software que generalmente acta entre el sistema operativo y las aplicaciones con la finalidad de proveer a un cluster lo siguiente: Una interfaz nica de acceso al sistema, denominada SSI (Single System Image), la cual genera la sensacin al usuario de que utiliza un nico ordenador muy potente; Herramientas para la optimizacin y mantenimiento del sistema: migracin de procesos, checkpointrestart (congelar uno o varios procesos, mudarlos de servidor y continuar su funcionamiento en el nuevo host), balanceo de carga, tolerancia a fallos, etc.; Escalabilidad: debe poder detectar automticamente nuevos servidores conectados al cluster para proceder a su utilizacin. Existen diversos tipos de middleware, como por ejemplo: MOSIX, OpenMOSIX, Cndor, OpenSSI, etc.
Pgina 7
Beowulf.
Berkeley NOW
El sistema NOW de Berkeley estuvo conformado por 105 estaciones de trabajo Sun Ultra 170, conectadas a travs de una red Myrinet. Cada estacin de trabajo contena un microprocesador Ultra1 de 167 MHz, cach de nivel 2 de 512 KB, 128 MB de memoria, dos discos de 2.3 GB, tarjetas de red Ethernet y Myrinet. En abril de 1997, NOW logr un rendimiento de 10 GFlops. Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011
Pgina 8
Google
Durante el ao 2003, el cluster Google lleg a estar conformado por ms de 1500.000 computadores personales. En promedio, una consulta en Google lee cientos de megabytes y consume algunos billones de ciclos del CPU.
Cluster PS2
En el ao 2004, en la Universidad de Illinois en Urbana-Champaign, Estados Unidos, se explor el uso de consolas Play Station 2 (PS2) en cmputo cientfico y visualizacin de alta resolucin. Se construy un cluster conformado por 70 PS2; utilizando Sony Linux Kit (basado en Linux Kondora y Linux Red Hat) y MPI.
Cluster X
En la lista TOP 500 de noviembre de 2004 fue considerado el sptimo sistema ms rpido del mundo; sin embargo, para julio de 2005 ocupa la posicin catorce. Cluster X fue construido en el Tecnolgico de Virginia en el 2003; su instalacin fue realizada por estudiantes del Tecnolgico. Est constituido por 2200 procesadores Apple G5 de 2.3 GHz. Utiliza dos redes: Infiniband 4x para las comunicaciones entre procesos y Gigabit Ethernet para la administracin. Cluster X posee 4 Terabytes de memoria RAM y 176 Terabytes de disco duro, su rendimiento es de 12.25 TFlops. Se lo conoce tambin como Terascale.
En el ao 2007 se crea la Red Espaola de Supercomputacin compuesta por 7 clusters distribuidos en distintas instituciones espaolas. Todos los clusters (a excepcin de la segunda versin de Magerit) estn formados por un nmero variable de nodos con procesadoresPowerPC 970 a 2.2GHz interconectados con una red Myrinet. El rendimiento de las mquinas oscilan entre los casi 65 TeraFLOPSproporcionados por las ms de 10000 CPUs de Marenostrum, los casi 16 TeraFLOPS de Magerit (primera versin) con 2400 procesadores o los casi 3 TeraFLOPS de los 5 nodos restantes. La actualizacin de Magerit en 2011 mantiene la arquitectura cluster por su versatilidad y reemplazando los elementos de cmputo por nodos IBM PS702 con procesadores POWER7 a 3.0GHz y logrando unrendimiento ms de 72 TeraFLOPS lo que le convierte en el ms poderoso de Espaa. Esto demuestra la sencillez y flexibilidad de la arquitectura: actualizando algunos elementos se obtienen sistemas ms potentes sin grandes complicaciones.
Thunder
Thunder fue construido por el Laboratorio Nacional Lawrence Livermore de la Universidad de California. Est conformado por 4096 procesadores Intel Itanium2 Tiger4 de 1.4GHz. Utiliza una red basada en tecnologa Quadrics. Su rendimiento es de 19.94 TFlops. Se ubic en la segunda posicin del TOP 500 durante junio de 2004, luego en la quinta posicin en noviembre de 2004 y en la lista de julio de 2005 se ubic en la sptima posicin. Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011
Pgina 9
ASCI Q
ASCI Q fue construido en el ao 2002 por el Laboratorio Nacional Los lamos, Estados Unidos. Est constituido por 8192 procesadores AlphaServer SC45 de 1.25 GHz. Su rendimiento es de 13.88 TFlops. Se ubic en la segunda posicin del TOP 500 durante junio y noviembre de 2003, luego en la tercera posicin en junio de 2004, en la sexta posicin en noviembre de 2004 y en la duodcima posicin en julio de 2005.
MTODOS DE BALANCEO IP
En este tipo de Cluster el nodo director acta como una especie de router. En el Kerneldel nodo se encuentran aadidas todas las tablas de encaminamiento, las cuales son empleadaspara realizar el reenvo de los paquetes a los servidores reales. Para efectuar este reenvo depaquetes existen tres formas las cuales son: VS-NAT VS-DR Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 11
VS-NAT
Es el caso ms sencillo de configurar de todos y el que menor rendimiento tienerespecto a los otros dos. VS-NAT hace uso de NAT para modificar direcciones. Existen tantola implementacin para las versiones de Kernel 2.25 como para las 2.46. Ambasimplementaciones dan soporte SMP para LVS en el nodo director (que es el que tiene el Kernel modificado), lo que permite una tasa de manejo de paquetes muy alta para Clusters queproveen de mucho servicio. Para que este tipo de mtodo de balanceo funcione de manera adecuada, se debecontar con el Kernel del director parchado con LVS (ipvs) y a su vez de una batera deservidores, los cuales pueden correr cualquier sistema operativo y cualquier servicio. La tarea realizada por el nodo director es recibir las peticiones de los clientes por su VIP, y ste a su vez reenva los paquetes al servidor real, el cual responde a la peticin y losenva nuevamente al nodo director, el que cambia las direcciones de cabecera para que noexistan problemas a la hora en que el cliente reciba dichos paquetes. Como se puede ver, el mecanismo es muy parecido, por no decir igual, que el de unproxy inverso, excepto por que el redireccionamiento se hace a nivel de Kernel. VS-NAT tiene el mismo problema que los proxys inversos: el nodo director llega a serun cuello de botella en cuanto las exigencias por parte de los clientes se hacen muy altas, o elnmero de servidores internos de la red crece por encima de los 20. Es por esto que este tipode configuracin es la menos utilizada de las tres.
VS-TUN [LVS2005]. VS-DR Es una tecnologa que realiza un encaminamiento directo de los paquetes del nododirector al los servidores reales. Su base en una tecnologa de red local (en un nico segmento)y en un cambio de direcciones IP-MAC proporcionan el mtodo de reenvo de los paquetes.
Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 15
Una similitud que se presenta con VS-TUN es que ambos mtodos no reenvan lospaquetes al nodo director, de esta forma, tampoco existe el cuello de botella presentado en VSNAT. Por ser el que mayor rendimiento obtiene, es uno de los ms utilizados, pero al igual queel resto, presenta una serie de desventajas en su uso y configuracin. El funcionamiento de VS-DR es similar al de VS-TUN en el sentido de que ambosutilizan la direccin VIP no solamente en el nodo director (donde est la direccin VIP real ala que acceden los clientes) sino tambin en los nodos servidores. En este caso, los servidoresposeen dos direcciones asociadas al nodo, una es la IP real asociada a la tarjeta Ethernet, laotra es una direccin loopback especial configurada con la direccin VIP, es conveniente dejarla interfaz loopback que tiene la direccin 127.0.0.1 sin modificar, por lo cual se debe hacer unalias de esta interfaz pero con la direccin conocida como VIP.
VS-DR [LVS2005] Cuando un cliente quiere realizar una conexin con el director lanza un paquete ARP(o en su defecto lo manda el router, en cualquier caso el problema es el mismo) para saber cules la direccin MAC del director. ste hace el reenvo dependiendo del algoritmo deplanificacin y al mismo tiempo guarda en su tabla el estado de la conexin que se harealizado. El servidor contesta y se reenva la respuesta hacia el cliente.
Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 17
Puede darse el caso que no ocurra as y en vez de contestar el director conteste uno delos servidores reales, por lo cual la conexin se realizar pasando por encima del LVS, en unaespecie de by-pass, y de esta forma el nodo director no guardar ni los estados ni la conexin.Hasta aqu no existe ningn problema. El problema est en el caso de que la tabla ARP del router o cliente se borre y vuelva apedir ARP Who has VIP tell cliente/router concedindose la MAC de otro servidor o inclusodel nodo director, que no tiene ni idea de cmo va la conexin en ese momento ya que el noestaba entregando el servicio Figura N2.7 Problema ARP.
QU ES OPENMOSIX?
El software openMosix permite realizar la implementacin de un Cluster de Alto- Rendimiento, bajo el sistema operativo Linux. Una cualidad importante de openMosix es la posibilidad de realizar la implementacin de un Cluster de Alto-Rendimiento, sin costos de licencias, esto es debido a que tiene licencia GPL2, lo cual es una de las caractersticas de esta investigacin. Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 19
DESCRIPCIN DE OPENMOSIX
El paquete de software openMosix convierte computadores corriendo GNU/LINUX conectados en red, en un Cluster. ste realiza automticamente el balanceo de carga entre los diferentes nodos del Cluster, y estos pueden unirse o retirarse del mismo sin presentar mayores problemas. El software openMosix no dispone de un control centralizado y/o jerarquizado en maestros/esclavos: cada nodo puede operar como un sistema autnomo, y establece independientemente sus propias decisiones. Este diseo permite la configuracin dinmica, donde los nodos pueden aadirse o dejar el Cluster con interrupciones mnimas. Tambin cabe mencionar que openMosix nos brinda una nueva dimensin de la escalabilidad de un Cluster bajo Linux. Permite la construccin de arquitecturas de alto rendimiento, donde la escalabilidad nunca se convierte en un cuello de botella para el rendimiento general del Cluster. Otra ventaja de los sistemas openMosix es la respuesta en condiciones de alta impredecibilidad producida por distintos usuarios y/o situaciones. Los factores que son determinantes en el momento en que la carga es repartida entre los nodos son: su velocidad de conexin, el espacio libre con el que cuente la memoria y la velocidad de los procesadores en trminos de ciclos por segundo. La distribucin de la carga de procesos es realizada por un algoritmo de balanceo de carga, el cual realiza en forma transparente (al usuario, al nodo y al proceso) las migraciones de procesos de un nodo a otro. El beneficio es una mejor reparticin de carga entre los nodos, ya que el mismo Cluster se preocupa de optimizar en todo momento las cargas de los nodos. Adems a travs de las distintas herramientas de monitorizacin es posible visualizar cul es la carga en cada equipo, y cmo el algoritmo de balanceo realiza la distribucin. Tambin se ofrece la posibilidad de que el administrador del sistema pueda afectar el balance de carga automtico mediante una configuracin manual durante la ejecucin de un determinado proceso. Al momento de iniciar un proceso en un nodo x, el Cluster determina, basado en diferentes criterios, si es mejor ejecutar un cierto proceso en un nodo menos cargado. El software openMosix utiliza un algoritmo Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 20
Ventajas de openMosix:
No se requieren paquetes extra, para el Kernel. No son necesarias modificaciones en el cdigo del Kernel. Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 21
Desventajas de openMosix:
Es dependiente del Kernel. No migra todos los procesos siempre, tiene limitaciones de funcionamiento. Problemas con memoria compartida. Adems los procesos con mltiples threads (hebras) no ganan demasiada eficiencia. Tampoco se obtendr mucha mejora cuando se ejecute un solo proceso, como por ejemplo el navegador. Este ltimo punto se tratar ms adelante en la seccin de memoria compartida y los motivos de la investigacin de este tipo de Cluster, como un mtodo de solucin.
Mosmon
Mosmon es la tcnica de monitorizacin para el Cluster que ofrece la instalacin bsicade openMosix el cual permite ver en modo texto un grfico de barras, con la carga que tienen los nodos pertenecientes al Cluster.
Mosmon. Para la monitorizacin del Cluster, tambin existe otra herramienta, la cual es msamigable, esta herramienta es openMosixView. Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 22
OpenMosixView
La herramienta openMosixView tiene por objeto mostrar en un entorno grfico, cul es la carga de los nodos y adems cumple el rol de interfaz para el resto de herramientas que vienen incorporadas en openMosix. Adems de presentar un entorno grfico amigable, openMosixView permite realizar la administracin del Cluster de forma fcil y dinmica, mediante las distintas herramientas que se mencionarn a continuacin.
Herramientas de openMosixView
Las herramientas que vienen incorporadas en openMosixView son las siguientes: OpenMosixview es la principal aplicacin la cual realiza la monitorizacin y administracin. OpenMosixprocs esta aplicacin es utilizada para la administracin de procesos. OpenMosixcollectorCaptura la informacin del Cluster proporcionada por los demonios. OpenMosixanalyzer esta aplicacin es un analizador de la informacin capturada poropenMosixcollector. OpenMosixhistory historial de monitorizacin de procesos del Cluster. OpenMosixmigmonvisor que representa la migracin de procesos. 3dmosmon visor para monitorizacin de datos en 3D. Todas estas herramientas se encuentran disponibles en la pantalla principal deopenMosixView. Requerimientos: Tener instaladas las libreras QT segn indique la versin. Derechos de superusuario -root-. Las herramientas de usuario de openMosix -userland-tools-.
openMosixView. La herramienta openMosixview muestra, para cada nodo que pertenece al Cluster (cadafila): una luz, un botn, un slider, un nmero lcd, dos barras de progreso y un par de etiquetas. Las luces de la izquierda muestran el ID del nodo y su estado. El color rojo significa que el nodo no se encuentra operativo y el color verde, que el nodo est operativo. Si se hace clic en el botn que muestra la direccin IP de un nodo se llamar al dilogode configuracin, que muestra los botones para ejecutar los comandos de mosctl. Con los sliders de velocidad se puede establecer la velocidad que considerar el Cluster para cada nodo. Este parmetro se muestra en el display lcd. Se puede tambin intervenir en el balanceo de carga de cada nodo cambiando sus valores. Los procesos en un Cluster openMosix migran ms fcilmente hacia un nodo cuya velocidad sea ms elevada. Se tiene que tener presente que este concepto de velocidad no tiene que ser el que realmente posea la computadora, es simplemente el parmetro que se quiere que openMosix considere para cada mquina. Las barras de progreso, que conforman el par de columnas en la mitad de la ventana, dan una idea general de la carga de cada nodo del Cluster. La primera se refiere a la carga del procesador y muestra un porcentaje que ser una aproximacin del valor escrito por openMosix en el fichero /proc/hpc/nodes/x/load. La segunda barra muestra la memoria utilizada en cada nodo. El box de la izquierda muestra el total de memoria disponible. Finalmente el box del extremo derecho muestra el nmero de procesadores de cada nodo. En la esquina superior-izquierda se puede ver el box load-balancing efficiency, ste es un 95% y es el indicador de la eficiencia del algoritmo de balanceo de carga. Un valor prximo al 100% indica que la carga computacional ha podido dividirse equitativamente entre los nodos. Podemos utilizar los mens de collector- y analyzer- para administraropenMosixcollector y openMosixanalyzer, respectivamente. Estas dos partes de las aplicaciones openMosixView son muy adecuadas para construir un historial del trabajo hecho y la manera en cmo se ha hecho en el Cluster.
MEMORIA COMPARTIDA
Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 24
Ejemplo:
La distribucin principal utilizada es ClusterKnoppix, y el ncleo openMosix. Como el nombre insina, ClusterKnoppix es una derivada de Knoppix. ClusterKnoppix provee a los usuarios todas las prestaciones de Knoppix (la abundancia de aplicaciones, booteo desde el CD, auto deteccin del hardware, y el soporte para muchos perifricos y dispositivos) junto con las capacidades del agrupamiento de estrellas del openMosix. ParallelKnoppix, PlumpOS, Quantian, y CHAOS son algunas de las distribuciones de linux para hacer un Cluster, pero ClusterKnoppix es probablemente la ms popular porque esta: o Proporciona un verdadero servidor KDE (entre otros tableros del escritorio) o Ofrece varias aplicaciones (tales como GIMP) o Ha adoptado realces de la seguridad de la distribucin CHAOS.
Familia de Herramientas
Materia: Arquitecturas paralelas Alumno: Rodriguez Mario Ao: 2011 Pgina 28
Si el estado del Cluster es el adecuado; ClusterKnoppix nos permitir usar las siguientes herramientas:
OpenMosixview
Detectar el nmero de nodos en el Cluster con una interfaz agradable. Se puede ver la eficacia, la carga, y la memoria disponible para el Cluster, el porcentaje de la memoria usado, y otra informacin. No se ver mucha actividad a este punto, puesto que el grupo apenas se est utilizando. Pasa un cierto tiempo hasta que se familiariza con esta aplicacin.
OpenMosixmigmon
Esta aplicacin muestra los procesos que se han emigrado del nodo principal al Cluster. Moviendo el Mouse sobre el nodo, brindar el nombre del proceso y su identificacin. Se puede Emigrar un proceso particular del nodo principal.
OpenMosixAnalyzer
Esta aplicacin simple escribe una crnica de la carga del Cluster as como tambin los nodos individuales de su inicializacin hasta el tiempo que el Cluster est activo.
El Mosmon
Esta herramienta monitorea la carga en el Cluster, la memoria disponible, memoria que fue utilizada, y otras cosas en tiempo real.
El Mtop
Esta herramienta es de inters para las personas que estn familiarizadas con top. Los mantenimientos de top rastrean todos y cada uno de los procesos andando en la computadora. El mtop, tambin exterioriza a cada proceso, con la informacin adicional del nodo en el cual el proceso echa a andar.