Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CLUSTER CICA
1. Esquema General
2. Conexión
3. Sistema de Colas
4. Compilación de aplicaciones
5. Aplicaciones disponibles
6. Almacenamiento compartido
7. Monitorización de tareas
1. Esquema general
· devel.cica.es
· pool.cica.es
Dicha máquina actúa como cabecera del gestor de colas del cluster Sun Grid
Engine (SGE). En esta máquina únicamente está permitido lanzar tareas al propio
de gestor de colas, así como su monitorización. La ejecución de cualquier otra
aplicación, compilación o tarea quedará terminantemente prohibida por motivos de
seguridad e integridad de la máquina.
· Cluster de computación
En los sistemas Linux, hay un cliente ssh integrado. Si desea realizar una
conexión desde un sistema Windows, recomendamos el uso de Putty o Tunnelier.
@eca: Cola por defecto del cluster CICA. Se dispone de aproximadamente 156
procesadores para tareas que requieran de paralelización y para una duración
estimada superior a 24 horas.
@ibnodes: Para la cola de ejecución en el cluster Bull. Para el uso de dicho cluster
debe solicitar permiso al departamento de Supercomputación, indicando que tipo
de ejecución va a realizar y el tiempo estimado de uso. Esta cola está orientada
principalmente a tareas que requieran de una gran velocidad de computación,
debido a la característica de sus procesadores y a su interconexión a través de
Infiniband.
Una vez que se tenga este script, puede lanzarlo desde la máquina
pool.cica.es:
Ejemplo Script:
### ZONA DE OPCIONES. Se definen las opciones de SGE, como pueden ser el
## shell por defecto (-S), el nombre de la tarea, para su posterior identificación
## (-N), el directorio por defecto que tendrá para la ejecución (-wd), y la cola y el
## tipo de paralelización que tendrá (-q y -pe). Todas comienzan con #$:
#$ -S /bin/bash
#$ -N prueba
#$ -wd /home/usuario/
#$ -q eca
#$ -pe mpi_slots 8
. /etc/profile
module load cc_intel/9.1 fc_intel/9.1 openmpi-1.2.7/gnu mkl/9.0
Para este propósito, hemos configurado una máquina con todos los
compiladores y librerías necesarias para ejecutar aplicaciones en el cluster CICA.
Puede realizar una conexión a esta máquina con ssh:
Una vez dentro, tendrá acceso a todos los ficheros que disponga en el cluster,
debido a la compartición por Lustre de todos ellos. Puede compilar todas las
aplicaciones que considere necesarias, sin ninguna restricción. En el apartado 5
puede consultar las aplicaciones que ya tenemos precompiladas en el cluster, así
como su utilización.
Dentro de esta máquina se dispone de una utilidad llamada
“modules_environment”.
Con esta utilidad modificamos el entorno de usuario de forma dinámica, creando
variables de entorno y añadiendo rutas al PATH para que pueda ejecutarse
correctamente una aplicación dentro de una sesión.
· Bull MPI
· OpenMPI
· LAM-MPI
· MPICHv2
· module avail : Nos muestra información sobre los módulos que están
disponibles.
· module list: Nos informa de los módulos que están cargados en nuestro
entorno.
· module add module_name : Añade un módulo para poder utilizarlo.
· module rm module_name: Elimina el módulo correspondiente.
· module switch module_1 module_2 : Elimina el módulo_1 y añade el
módulo _2.
2. Uso de la aplicación
(..)
/opt/modules/modulefiles
(..)
Al tener estos módulos cargados por defecto, al hacer login podemos ver los
módulos que efectivamente están cargados:
Modules puede ser utilizado junto con SGE. Tan sólo habría que incluir en el
script el comando:
. /etc/profile
(..)
. /etc/profile
module load openmpi-1.3.2/intel cc_intel/10 fc_intel/10
(..)
5. Aplicaciones Disponibles
6. Almacenamiento compartido
Todos los nodos disponen de este sistema de ficheros situado en /home, por
lo que las carpetas de los usuarios serán visibles por todas las máquinas de
computación.
Por motivos de seguridad, recomendamos que se haga un chequeo
periódico de los ficheros de cada carpeta de usuario, eliminando aquellos que sean
más antiguos o no se vaya a hacer más uso de ellos.
http://cube.cica.es
En dicha página podemos ver el estado de todas las máquinas del cluster, así
como el uso que se hace de cada una de forma individual, pinchando en el nodo
correspondiente:
Dentro de cada uno de los apartados podemos ver la lista de nodos que
corresponden a cada cluster:
Ej:
==============================================================
job_number: 10000
exec_file: job_scripts/10000
submission_time: Mon Mar 15 08:10:36 2010
owner: user
uid: 1111
group: user
gid: 1111
sge_o_home: /home/user
sge_o_log_name: fsoler
sge_o_path: /var/sge/bin/lx24-
amd64:/usr/kerberos/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/condor/sbin:/usr/local/condor/bin:/home/user/bin
sge_o_shell: /bin/bash
sge_o_workdir: /home/user/tarea
sge_o_host: pool
account: sge
cwd: /home/user/tarea
stderr_path_list: NONE:NONE:error.txt
mail_list: user@pool.hpc.cica.es
notify: FALSE
job_name: tarea
stdout_path_list: NONE:NONE:salida.txt
jobshare: 0
hard_queue_list: eca
shell_list: NONE:/bin/bash
env_list:
script_file: script.sge
usage 1: cpu=6:10:28:06,mem=220528.32584GBs,io=0.00000,vmem=812.219M,maxvmem=812.219M
scheduling info: (...)